2016-03-25 2 views
0

следующий запрос 'http://corenlp.run' присваивает метку 'dep' всем зависимостям. Может ли кто-нибудь объяснить это поведение? Похоже на вопрос для меня или это может быть какое-то ограничение (ограничение скорости) от публичной конечной точки? Тем не менее, web-interface возвращает правильный ответ.Сервер CoreNLP присваивает 'dep' всем зависимостям

wget --post-data "Having earned a doctorate as a physical chemist, Merkel entered politics in the wake of the Revolutions of 1989, briefly serving as a deputy spokesperson for the first democratically-elected East German Government in 1990. Following German reunification in 1990, Merkel was elected to the Bundestag for Stralsund-Nordvorpommern-Rügen in the state of Mecklenburg-Vorpommern, a seat she has held ever since. Merkel was later appointed as the Minister for Women and Youth in 1991 under Chancellor Helmut Kohl, later becoming the Minister for the Environment in 1994. After Kohl was defeated in 1998, Merkel was elected Secretary-General of the CDU before becoming the party's first woman leader two years later in the aftermath of a donations scandal that toppled Wolfgang Schäuble." 'http://corenlp.run/?properties={"tokenize.whitespace": "true", "annotators": "tokenize,ssplit,pos,lemma,ner,parse, depparse,mention,coref", "outputFormat": "json",'timeout': 30000}' -O - 

Для других входов ответ атрибута разбора выглядит довольно странным. Ответ на веб-интерфейс снова верен. Пример неправильного ответа синтаксического анализа:

"parse":"(X ... (X their) (X stomachs) (X while) (X simultaneously) (X appealing) (X to) (X their) (X vanity.) (X The) ...)" 

Я попробовал общественную конечную точку, так как последний релиз составлены страдает от этого issue и кодовый Github инструкции по сборке кажется устаревшей. Я полностью пропустил путеводитель, в котором описывается, как построить * .jars, предоставленный в их пакете судьбы here из репо Github.

UPDATE:

Только что попробовал один и тот же запрос с локальным экземпляром и последней CoreNLP Server. Тот же вопрос. Только веб-интерфейс возвращает правильный ответ. Если я удалю аннотатор синтаксического анализа, он будет работать. Однако мне нужны оба аннотации.

ответ

0

Скорее всего, вы нажимаете на сервер по умолчанию parse.maxlen лимит 60. Вы можете переопределить его, явно установив свойство parse.maxlen=<number_of_tokens> в свойствах, переданных на сервер. Но будьте осторожны: предложения дольше, чем это, могут занять очень много времени, чтобы разобрать.

Если вам нужны только зависимости, я рекомендую использовать вместо этого аннотатор depparse. Это то, что использует демо в corenlp.run, и почему оно работает при более длинных предложениях.

+0

Мне действительно нужны разборки и разборки за предложение и ядро ​​на заданном уровне «документ». Я вижу проблему. Поскольку я использую токенизатор белого пространства, и все полные остановки являются частью токена, 'ssplit' записывает весь ввод как одно предложение. Моя вина, спасибо, что указала на меня! Каждое отдельное предложение не попадает в значение parse.maxlen, поэтому это не должно быть проблемой. Вы знаете руководство, в котором объясняется, кто компилирует CoreNLP-сервер из кода Github? – user2715478

+0

Компиляция сервера должна быть такой же простой, как запуск 'ant' (или' ant jar', чтобы сделать банку). Обратите внимание, что вам также нужно будет загрузить связанную модель jar (ссылки на README). Затем поместите оба из них в свой путь к классам, в дополнение к тем, какие библиотеки из каталога 'lib /' вам нужны. –

+0

Да, 'ant jar' сделал трюк. Следует добавить [здесь] (https://github.com/stanfordnlp/CoreNLP/wiki/Compilation-Instructions). Большое спасибо! – user2715478

 Смежные вопросы

  • Нет связанных вопросов^_^