Индексация фильтров на сайте

M5
На сайте с 08.12.2010
Offline
38
2423

Здравствуйте, уважаемые форумчане!

На данный момент создаем сайт. Тематика - smm. Есть хорошая перспектива получения трафика за счет большого количества тематических запросов. И перед нами встал вопрос: какую структуру сайта выбрать:

1. Стандартная структура каталога со страницами, где каждая страница продвигается по своим запросам, в зависимости от релевантности.

2. Основной раздел - это одна страница, на которой будет фильтр (расширенный поиск информации по разным критериям). В таком случае продвигать будем одну страницу, но с примененным фильтром для разных запросов.

С точки зрения юзабилити и других факторов нам нравиться второй вариант, т.к. мы считаем его более удобным для пользователей. Но вот с точки зрения продвижения сайта - это большой вопрос.

Так вот - собственно сам вопрос:

Как вообще поисковые системы индексируют такие фильтры, т.е. страницы вида: http://страница1/фильтр1, http://страница1/фильтр2. Считают ли ПС это отдельными страницами? Не может ли возникнуть проблем с индексацией и продвижением таких страниц?

Заранее благодарю за ответы.

vkusnoserver
На сайте с 30.04.2011
Offline
104
#1

Проблемы по второму варианту возникнут, если не будете сохранять результаты каждого фильтра как отдельную страницу. Обратите внимание на другие агрегаторы в выдаче. У вас ведь будет агрегатор, я правильно понял? Могу назвать по своему профилю примеры: robtex.com, myip.ms. И множество других аналогичных whois-сервисов сохраняют результаты пользовательских запросов.

Поэтому если вы хотите делать вариант 2, то без варианта 1 все равно не обойдетесь. Можно для пользователей выводить только вариант 2, остальную структуру варианта 1 держать для ПС, чтобы корректно индексировали сайт и подтягивались нч-хвосты.

Скидки на хостинг (/ru/forum/629944) | Конфигуратор (http://www.vkusnoserver.ru/link.php?id=31) | Администрирование (/ru/forum/871196) CEO собственной персоной - skype: vkusnoandy
M5
На сайте с 08.12.2010
Offline
38
#2

нет, у нас будет не агрегатор. вся информация на сайте планируется уникальная.

по поводу комбинированного варианта (1 для индексации и продвижения и 2 для пользователей) - возникает вопрос дублей страниц

vkusnoserver
На сайте с 30.04.2011
Offline
104
#3

Ради интереса решил посмотреть, что пишет по этому поводу Яндекс, ну и нашел косвенное подтверждение своим словам:

Робот Яндекса может проиндексировать AJAX-сайт, если структура сайта подчиняется определенным правилам.

Каждая индексируемая AJAX-страница должна иметь HTML-версию.

Так что на вашем месте я бы беспокоился не о дублях, а чтобы вообще что-то было в индексе.

M5
На сайте с 08.12.2010
Offline
38
#4
vkusnoserver:
Робот Яндекса может проиндексировать AJAX-сайт, если структура сайта подчиняется определенным правилам.

Да мы вроде как не будем использовать AJAX, а при примененным фильтре страница будет перезагружаться и менять свой урл. А так же при каждом фильтре будет свое описание на странице. По крайней мере задумка такая была.

Seo-Seo
На сайте с 05.12.2006
Offline
292
#5

ТС, смотря как реализуете. Это не сеошный, а прогерский вопрос. Есть фильтры и со статичными результатами, есть с динамичными - как сделаете.

Комплексное продвижение от группы профи. Внимательно, качественно, грамотно. Дизайн, контекст, таргет. (/ru/forum/1024059) hugo.digital (https://hugo.digital)
secondary
На сайте с 20.12.2012
Offline
142
#6

Дополнительный текст с ключами на html копию страницы фильтра решает вашу проблему.

Seo аудит сайтов. Консультации. Качественная внутренняя оптимизация. (/ru/forum/803695) Полная подготовка проектов с нуля! Оптимизация готовых сайтов.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий