В настоящее время мой robots.txt
является следующиеRobots.txt Конкретная Исключение
#Sitemaps
Sitemap: http://www.baopals.com.com/sitemap.xml
#Disallow select URLs
User-agent: *
Disallow: /admin/
Disallow: /products/
Мои продукты имеют много дублированного контента, как я прижаться данных от taobao.com и автоматически перевести его в результате чего много дубликата и низкой поэтому я просто запрещаю все это. Однако я вручную меняю названия на определенные продукты и повторно сохраняю их в базе данных и демонстрирую их на главной странице с правильными переводами, которые они по-прежнему сохраняют обратно до /products/
и теряются навсегда, когда я удаляю их с домашней страницы.
Мне интересно, можно ли разрешить продукты, которые я сохраняю на главной странице с обновленными переводами, по-прежнему индексируется Google или я вынужден изменить каталог обновленных вручную продуктов?
Я голосующий, чтобы закрыть этот вопрос как не по теме, потому что речь идет о SEO –
@JohnConde Я не согласен, мне интересно программировать, можно ли индексировать эти продукты без изменения моей файловой структуры. Кажется, что тег seo – NooBskie