Если у меня есть сайт форумов с большим количеством потоков, будет ли поисковая система бот сканировать весь сайт каждый раз? Скажем, у меня более 1 000 000 потоков на моем сайте, будут ли они сканироваться каждый раз, когда бот сканирует мой сайт? или как это работает? Я хочу, чтобы мой сайт был проиндексирован, но я не хочу, чтобы бот убивал мой сайт! Другими словами, я не хочу, чтобы бот продолжал сканировать старые темы снова и снова каждый раз, когда он просматривает мой сайт.Как поисковые роботы сканируют форумы?
Кроме того, как насчет страниц, сканированных раньше? Будет ли бот запрашивать их каждый раз, когда он сканирует мой сайт, чтобы убедиться, что они все еще находятся на сайте? Я спрашиваю об этом, потому что я только ссылаюсь на последние потоки, т. Е. Есть страница, содержащая список всех последних потоков, но я не ссылаюсь на старые потоки, они должны быть явно запрошены по URL-адресу, например. http: // example.com/showthread.aspx?threadid=7, будет ли это работать, чтобы остановить бота от переноса моего сайта и потребления всей моей пропускной способности?
P.S. Сайт все еще находится в разработке, но я хочу знать, чтобы создать сайт, чтобы роботы поисковой системы не сбивали его.