2010-06-01 1 views
0

Мы внедряем новую структуру Url для нашего существующего сайта (Urdb.org), и я борюсь с механиками Url и тем, как это относится к SEO.Как обрабатывать структуру Url для данных родителя/ребенка?

В нашем мире мы имеем дело с родительским объектом: «запись», то есть мировые записи, например. «Самая большая зубчатая бородка» и «попытка», например. «Джордж Гаспар, февраль 2009». Существует только одна страница, но различные попытки находятся на разных вкладках на странице.

Выбор для Url являются:

  1. urdb.org/WR/toothpick-beard#GeorgeGaspar1
  2. urdb.org/WR/toothpick-beard/GeorgeGaspar1
  3. urdb.org/WR/ зубочистка-борода? попытка = GeorgeGaspar1

Я планировал идти с выбором 1, но проблема в том, что, если я не ошибаюсь страница загрузки, а затем динамически переключаться с точки зрения попытки этого пользователя запрашивает whi ch будет неудобно.

Выбор # 2, похоже, работает с серверной POV, но я сильно склонен сокращать количество уникальных URL-адресов на сайте.

Единственная причина, по которой я перечисляю # 3, - это то, что я знаю в инструментах Google для веб-мастеров, я могу дать им указание игнорировать определенные значения запроса.

Помощь приветствуется!

+0

Примечание, эти новые страницы еще не живут на сайте. Они все еще находятся в разработке. – CoreyH

+0

Зачем ограничивать количество уникальных URL-адресов? Каждый вопрос на http://stackoverflow.com имеет уникальный URL-адрес, и, похоже, он отлично подходит для SEO. – Pace

+0

Параллельно для нас были бы вопросы: records :: ответы: попытки. Я думаю, StackOverflow делает это также с кнопкой «link» и использует мой вариант №2. – CoreyH

ответ

0

Последнее, что вы хотите сделать для SEO, ограничено количеством контента (если только его не обманут). Вы найдете везде, где контент является королем. Больше содержимого spiderablke/лучший шанс ранжирования.

В любом случае, я бы сказал, что второе предложение для полного на SEO дружелюбности и если вы не хотите быть индексации, вы можете использовать предложение 3 и исключить попытку параметров из поисковых систем с помощью файла robots.txt