Я экспериментирую с NLTK, чтобы помочь мне разобрать текст. До сих пор использование функции sent_tokenize было очень полезно при организации текста. В качестве примера у меня есть:Извлечение между токенами с помощью NLTK
1 Robins Drive owned by Gregg S. Smith was sold to TeStER, LLC of 494 Bridge Avenue, Suite 101-308, Sheltville AZ 02997 for $27,000.00.
с помощью:
words =pos_tag(word_tokenize(sentence))
я получаю:
[('1', 'CD'), ('Robins', 'NNP'), ('Drive', 'NNP'), ('owned', 'VBN'), ('by', 'IN'), ('Gregg', 'NNP'), ('S.', 'NNP'), ('Smith', 'NNP'), ('was', 'VBD'), ('sold', 'VBN'), ('to', 'TO'), ('TeStER', 'NNP'), (',', ','), ('LLC', 'NNP'), ('of', 'IN'), ('494', 'CD'), ('Bridge', 'NNP'), ('Avenue', 'NNP'), (',', ','), ('Suite', 'NNP'), ('101-308', 'CD'), (',', ','), ('Sheltville', 'NNP'), ('AZ', 'NNP'), ('02997', 'CD'), ('for', 'IN'), ('$', '$'), ('27,000.00', 'CD'), ('.', '.')]
Я смотрел на различные учебные пособия и книги http://www.nltk.org/book/, но я не уверен, наилучшего подхода к извлечению из двух токенов. Например, я хочу выбрать маркеры между «принадлежащими» и «был продан», чтобы получить имя владельца. как я могу лучше всего использовать функции NLTK и python для этого?
Wonder, если есть, не регулярное выражение решения с использованием, скажем, коллокаций или ngrams .. – alecxe
Взгляните на 'дистанционное наблюдение': http://web.stanford.edu/~jurafsky/mintz.pdf – alvas