Я использовал scikit CountVectorizer для преобразования коллекции документов в матрицу количества токенов. Я также использовал его max_features, который учитывает верхние max_features, упорядоченные по срочной частоте по корпусу.Как подобрать словарный запас в scikit CountVectorizer
Теперь я хочу проанализировать свой выбранный корпус, особенно хочу знать частоту токенов в выбранной лексике. Но я не могу найти простой способ сделать это. Так любезно помогите мне в этом отношении.