- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, уважаемые форумчане!
На данный момент создаем сайт. Тематика - smm. Есть хорошая перспектива получения трафика за счет большого количества тематических запросов. И перед нами встал вопрос: какую структуру сайта выбрать:
1. Стандартная структура каталога со страницами, где каждая страница продвигается по своим запросам, в зависимости от релевантности.
2. Основной раздел - это одна страница, на которой будет фильтр (расширенный поиск информации по разным критериям). В таком случае продвигать будем одну страницу, но с примененным фильтром для разных запросов.
С точки зрения юзабилити и других факторов нам нравиться второй вариант, т.к. мы считаем его более удобным для пользователей. Но вот с точки зрения продвижения сайта - это большой вопрос.
Так вот - собственно сам вопрос:
Как вообще поисковые системы индексируют такие фильтры, т.е. страницы вида: http://страница1/фильтр1, http://страница1/фильтр2. Считают ли ПС это отдельными страницами? Не может ли возникнуть проблем с индексацией и продвижением таких страниц?
Заранее благодарю за ответы.
Проблемы по второму варианту возникнут, если не будете сохранять результаты каждого фильтра как отдельную страницу. Обратите внимание на другие агрегаторы в выдаче. У вас ведь будет агрегатор, я правильно понял? Могу назвать по своему профилю примеры: robtex.com, myip.ms. И множество других аналогичных whois-сервисов сохраняют результаты пользовательских запросов.
Поэтому если вы хотите делать вариант 2, то без варианта 1 все равно не обойдетесь. Можно для пользователей выводить только вариант 2, остальную структуру варианта 1 держать для ПС, чтобы корректно индексировали сайт и подтягивались нч-хвосты.
нет, у нас будет не агрегатор. вся информация на сайте планируется уникальная.
по поводу комбинированного варианта (1 для индексации и продвижения и 2 для пользователей) - возникает вопрос дублей страниц
Ради интереса решил посмотреть, что пишет по этому поводу Яндекс, ну и нашел косвенное подтверждение своим словам:
Каждая индексируемая AJAX-страница должна иметь HTML-версию.
Так что на вашем месте я бы беспокоился не о дублях, а чтобы вообще что-то было в индексе.
Робот Яндекса может проиндексировать AJAX-сайт, если структура сайта подчиняется определенным правилам.
Да мы вроде как не будем использовать AJAX, а при примененным фильтре страница будет перезагружаться и менять свой урл. А так же при каждом фильтре будет свое описание на странице. По крайней мере задумка такая была.
ТС, смотря как реализуете. Это не сеошный, а прогерский вопрос. Есть фильтры и со статичными результатами, есть с динамичными - как сделаете.
Дополнительный текст с ключами на html копию страницы фильтра решает вашу проблему.