2009-11-01 6 views
1

Я большой сторонник использования супер чистых URL-адресов для всех страниц и списков. Обычно мои URL-адреса страницы - это example.com/section/page/2, а теги - example.com/tags/tagname. Я вообще даже пытаюсь оставить строку id из URL.Как структурировать фильтрацию списка чистого URL для удобства использования и SEO?

Но как вы, ребята, предложите сделать список фильтров?

Скажем, у вас есть список автомобилей, и вы хотите отсортировать по типу, цвету, цене или их комбинации. Предположим, вы хотите отфильтровать список, чтобы получить все зеленые седаны.

Это делает самый смысл для меня просто:

example.com/cars/?color=green&type=sedan&order=price 

Это не выглядит очень хорошо на всех ... Я могу читать это просто отлично, хотя.

Но ..

example.com/cars/green/sedan/price 

не имеет никакого смысла. Также было бы mofo попытаться выяснить схему маршрутизации для этого.

Также как это работает с SEO? Будет ли Google сканировать после?. Это хорошо, если он выполняет или не сканирует параметры? Будет ли индексирование google бесконечными перестановками одних и тех же данных, имеют плохие последствия?

ответ

3

Я видел пару схем, которые используют именованные параметры в чистом URL-адресе. Например:

example.com/cars/color:green/type:sedan/order:price 
example.com/cars/page:2 

Код, реализующий это может быть немного сложнее, но это легко понять, для пользователей.

+0

Это выглядит довольно хороший. Раньше я никогда не использовал двоеточие в URL-адресе. Мне нужно подумать о том, как я могу это направить. Выглядит многообещающе. – user73119

+0

Я считаю, что трюк захватывает URL-адрес, прежде чем передавать его остальной части вашего кода и выбирая их с помощью регулярного выражения. Любые неименованные аргументы затем передаются нормально, а именованные аргументы хранятся в массиве с ключом. – Jason

+0

остерегайтесь дублирующегося содержимого, так как ваши фильтры могут допускать дублирование страниц контента. сделать их неиндексируемыми с помощью меток META robots – dusoft

0

Google уже давно начал сканирование динамических страниц с помощью строк запроса. Итак, «?» в URL-адресе не является проблемой для Google.

Причина, по которой мы используем чистые URL, не потому, что поисковым системам это не нравится. Чистые URL-адреса предназначены для пользователей. Так что не потейте, если все, что вас беспокоит, это SEO, не потейте.

+0

«причина, по которой мы используем чистые URL-адреса, не потому, что поисковым системам это не нравится». - не говорите об этом. Я мог представить, что чем чище URL-адрес, тем больше вес поискового термина в нем. Это только мои предположения. –

+1

Да, я знаю. Я сказал, что это для пользователей, «строка параметров выглядит не очень хорошо». Я действительно говорил, что я задавался вопросом о части Google для обхода, но главным образом потому, что могут быть безграничные комбинации избыточного контента и как это повлияет на SEO. – user73119

+0

Это только ваши предположения и даже неправильный. да, ключевые слова в URL-адресе помогут, но только если кто-то свяжется с вами, используя полный URL-адрес в качестве якорного текста. – dusoft

0

Также как это работает с SEO? Будет ли Google сканировать после?.

Обычно это будет.

Это хорошо, если он выполняет или не выполняет ползучесть параметров?

Это зависит от вас, чтобы решить, не так ли? Я мог бы представить себе ряд общих запросов, которые были бы хороши в индексе, и большое количество очень подробных, которые бы это не сделали. Возможно, вы хотите подготовить несколько запросов для индексации и блокировать все остальное.

1

, когда у вас есть один список, это должен быть только указатель Google. помните «дублированный контент»?

поэтому обычно я бы не предлагал иметь отфильтрованный список в google. (но, возможно, он подходит к вашим услугам)

Я избегаю использования чистых URL-адресов для фильтров и в моем файле robots.txt. Я блокирую все URL-адреса с помощью запросов.

+0

Это именно то, что я искал. Спасибо за предложения. – user73119

0

Если вы возражаете, это чисто SEO и индексирование, то не изменяйте свои URI-адреса. Вместо этого используйте тег канонической ссылки и как на адрес вашей страницы, который вы хотите проиндексировать. Канонический тег ссылки поддерживается всеми или вскоре станет основными поисковыми системами и предотвращает избыточную индексацию одной и той же страницы с разными адресами URI.

<link rel="canonical" href="http://example.com/cars/green/sedan/price" type="text/html"/> 

Атрибут типа не требуется, но я считаю, что, как правило, хорошая практика, чтобы указать типы пантомимы на все запрошенные или направленные средства массовой информации.

1

Главное, чтобы думать о том, что происходит, когда пользователь хочет найти все седаны, но не заботится о цвете?

Лично я бы заказал поля, как они «высокого уровня», как если бы они были категориями. Например, сначала введите тип, затем, возможно, цвет. Любые переменные, которые изменяют способ просмотра данных, например упорядочения, сохраняются в строке запроса.

Таким образом, вы бы в конечном итоге с этим:

Все седаны: example.com/cars/sedan
Все зеленые седаны: example.com/cars/sedan/green
Седаны, скомандовал: example.com/cars/sedan?order=price
Зеленые седаны, скомандовал: example.com/cars/sedan/green?order=price