2015-07-31 5 views
1

Я вставляю 2000 URL-адресов, 1000, 500 или все, что сканер работает отлично, возвращая данные из объемных URL-адресов, НО затем останавливает несколько URL-адресов с конца и зависает .... как там не отменяет/останавливает кнопку Я должен выйти из программы.Crawler висит несколько URL-адресов с конца

Пример 250 ссылок наклеенные - останавливается на 247, 2000 URL-адресов, наклеенных - останавливается на 1986

+0

Hi Rod, являются все URL, вы проходите через успешно или некоторый недостаток? Вы можете сказать это панелью на верхней части гусеничного устройства. –

ответ

0

Род,

Это, как правило, из-за истечения времени ожидания, происходящих во время обработки. Попробовал ли вы копировать вставки URL-адресов в функции «Массовое извлечение»? Недавно мы выпустили обработку ошибок для Bulk Extract, процесс истечет после 1 ', и вы сможете повторить попытку тех, кто потерпел неудачу.

Смотрите здесь для примера: http://support.import.io/knowledgebase/articles/510065-bulk-extract-tutorial

 Смежные вопросы

  • Нет связанных вопросов^_^