- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
На сайте имеется аякс-фильтрация и пагинация, соответственно в индекс попадают страницы вида:
http://domen.ru/?page=2
http://domen.ru/?color=black
Стоит ли закрывать данные страницы от индексации? т.е прописывать в роботс правила "Disallow: *?"
Особенно интересует вопрос с пагинацией...
vit-vlg, на мой взгляд пагинацию и фильтрацию ПС относят к дублям. К тому же - скорее всего у вас одинаковый title и все остальное (кроме page=2 и карточек товаров). Если это страницы форума- это уже другое дело. Там по идее более уникальный контент,чем карточки товаров.
А так- есть 2 способа избавления от таких дублей.
1. Тег rel=canonical на основную страницу при пагинации (проверьте, не отдает ли она еще и page=1)
2. Закрытие таких страниц в роботс.
Возможно еще использование директивы clean param для фильтрации. Этот способ неплох на мой взгляд с точки зрения статического веса. Но вот для Google (чисто мое субъективное мнение) этот вариант может и не избавить ваш сайт от дублей.
3. И в целом, встречала мнение, что некоторым ПС тяжело индексировать динамические страницы с "?". Для этого их обычно пытаются сделать их псевдостатичными хотя бы. Хотя встречала и такие урлы в ТОПах. Правда максимум по СЧ НК.
Alen_Delon, проблема в том, что c одной стороны это дублирование контента, а с другой, если закрыть в роботс индексацию таких страниц через "Disallow: *?", то поисковик не увидит ссылки на вторую, третью и другие страницы в категориях, соответственно не перейдет на содержимое страниц. В карте сайта товары конечно будут, но естественных путей для поискового робота не будет.
Alen_Delon, проблема в том, что c одной стороны это дублирование контента, а с другой, если закрыть в роботс индексацию таких страниц через "Disallow: *?", то поисковик не увидит ссылки на вторую, третью и другие страницы в категориях, соответственно не перейдет на содержимое страниц. В карте сайта товары конечно будут, но естественных путей для поискового робота не будет.
Нет не надо закрывать. Лучшим решением будет rel="prev/next"
https://support.google.com/webmasters/answer/1663744?hl=ru
а rel=prev rel=next понимает разве Яндекс?
Он только с canonical дружил вроде...
Нет, не нужно закрывать.
Если на этих страницах дублируются мета теги и контент - закрывайте.
Или к каждому мета тегу в начале дописывайте номер страницы, а контент закрывайте в noindex
Думаю, что закрывать стоит, так как ПС-ы не особо любят дубли страниц