Я хочу создать приложение, которое случайно получает доступ к страницам с другого сайта. Этот сайт имеет более 40 000 страниц и не имеет api.Скопируйте несколько ссылок с веб-сайта
Как я могу собрать URL-адрес всех этих 40 000 страниц? Скопировать и вставить будет вечно.
Все эти страницы имеют ту же структуру, подобную site.com/directory/1.html, site.com/directory/2.html и т.д.
Уже был дан ответ - http://stackoverflow.com/questions/2804467/spid er-a-website-and-return-urls-only – PressingOnAlways
@PressingOnAlways Это похоже специально для 'wget'. OP отметил это с помощью JavaScript. –
OP предполагает копирование и склеивание всех URL-адресов, предполагающих, что он может выполнять обработку данных. Я предлагаю использовать wget или некоторую установленную методологию захвата URL-адресов и импортировать их в ваше приложение. Я не вижу необходимости повторно изобретать веб-очищающий бот. – PressingOnAlways