следующий запрос 'http://corenlp.run' присваивает метку 'dep' всем зависимостям. Может ли кто-нибудь объяснить это поведение? Похоже на вопрос для меня или это может быть какое-то ограничение (ограничение скорости) от публичной конечной точки? Тем не менее, web-interface возвращает правильный ответ.Сервер CoreNLP присваивает 'dep' всем зависимостям
wget --post-data "Having earned a doctorate as a physical chemist, Merkel entered politics in the wake of the Revolutions of 1989, briefly serving as a deputy spokesperson for the first democratically-elected East German Government in 1990. Following German reunification in 1990, Merkel was elected to the Bundestag for Stralsund-Nordvorpommern-Rügen in the state of Mecklenburg-Vorpommern, a seat she has held ever since. Merkel was later appointed as the Minister for Women and Youth in 1991 under Chancellor Helmut Kohl, later becoming the Minister for the Environment in 1994. After Kohl was defeated in 1998, Merkel was elected Secretary-General of the CDU before becoming the party's first woman leader two years later in the aftermath of a donations scandal that toppled Wolfgang Schäuble." 'http://corenlp.run/?properties={"tokenize.whitespace": "true", "annotators": "tokenize,ssplit,pos,lemma,ner,parse, depparse,mention,coref", "outputFormat": "json",'timeout': 30000}' -O -
Для других входов ответ атрибута разбора выглядит довольно странным. Ответ на веб-интерфейс снова верен. Пример неправильного ответа синтаксического анализа:
"parse":"(X ... (X their) (X stomachs) (X while) (X simultaneously) (X appealing) (X to) (X their) (X vanity.) (X The) ...)"
Я попробовал общественную конечную точку, так как последний релиз составлены страдает от этого issue и кодовый Github инструкции по сборке кажется устаревшей. Я полностью пропустил путеводитель, в котором описывается, как построить * .jars, предоставленный в их пакете судьбы here из репо Github.
UPDATE:
Только что попробовал один и тот же запрос с локальным экземпляром и последней CoreNLP Server. Тот же вопрос. Только веб-интерфейс возвращает правильный ответ. Если я удалю аннотатор синтаксического анализа, он будет работать. Однако мне нужны оба аннотации.
Мне действительно нужны разборки и разборки за предложение и ядро на заданном уровне «документ». Я вижу проблему. Поскольку я использую токенизатор белого пространства, и все полные остановки являются частью токена, 'ssplit' записывает весь ввод как одно предложение. Моя вина, спасибо, что указала на меня! Каждое отдельное предложение не попадает в значение parse.maxlen, поэтому это не должно быть проблемой. Вы знаете руководство, в котором объясняется, кто компилирует CoreNLP-сервер из кода Github? – user2715478
Компиляция сервера должна быть такой же простой, как запуск 'ant' (или' ant jar', чтобы сделать банку). Обратите внимание, что вам также нужно будет загрузить связанную модель jar (ссылки на README). Затем поместите оба из них в свой путь к классам, в дополнение к тем, какие библиотеки из каталога 'lib /' вам нужны. –
Да, 'ant jar' сделал трюк. Следует добавить [здесь] (https://github.com/stanfordnlp/CoreNLP/wiki/Compilation-Instructions). Большое спасибо! – user2715478