Я использую функцию пакетного запроса import.io для сканирования 25 тыс. URL-адресов. Он начался быстро, но начал сильно замедляться около 10K. Прошло более 6 часов, и это было в 19K. У меня, к сожалению, нет времени ждать, пока это не будет сделано, поэтому мне нужно делать все, что он собрал до сих пор.Мне нужно остановить искатель import.io и извлечь данные, которые он вытащил до сих пор. Как мне это сделать, не теряя данные?
Однако я не вижу кнопку остановки или что-то еще, и я боюсь потерять данные, если я слишком много общаюсь с ним.
Любая помощь приветствуется, спасибо!
Добро пожаловать в SO! Как мы должны знать, если мы даже не знаем, как работает гусениц? Мы не видели ни кода, ни того, как вы его используете. – cfi
Упс, извините. Я фактически использую их экстрактор. Надеюсь, эта картинка поможет. Извините за беспокойство:/http://screencast.com/t/PghYH5n47 – user3073431
@cfi забыл пометить вас – user3073431