Критическая ошибка Найдены страницы-дубли с GET-параметрами

12
BG
На сайте с 29.03.2018
Offline
100
1330

Здравствуйте, имеется интернет магазин на Wp. Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами

Пример страниц:

https://site.ru/product-category/igry/sport/page/3/?
https:// site.ru /product-category/igry/sport/page/3/?add-to-cart=4888

https:// site.ru /product-category/igry/shashki/page/3/?per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/page/3/?per_row=3&per_page=9&shop_view=list

https:// site.ru /product-category/igry/shashki/?per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/?per_row=2&per_page=9&shop_view=list

Хочу исправить следующим образом:

Disallow: /?fakeparam=

или -  Disallow: /*?

Какой вариант посоветуете?

Nixenz
На сайте с 24.08.2021
Offline
25
#1
я бы сначало так сделал, и посмотрел что будет писать дальше. Disallow: /*?
Семантическое Ядро: https://semanticheskoe-yadro.ru
AS
На сайте с 12.07.2019
Offline
52
#2
Bill_geits :

Здравствуйте, имеется интернет магазин на Wp. Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами

Пример страниц:

https://site.ru/product-category/igry/sport/page/3/?
https:// site.ru /product-category/igry/sport/page/3/?add-to-cart=4888

https:// site.ru /product-category/igry/shashki/page/3/?per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/page/3/?per_row=3&per_page=9&shop_view=list

https:// site.ru /product-category/igry/shashki/?per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/?per_row=2&per_page=9&shop_view=list

Хочу исправить следующим образом:

Disallow: /?fakeparam=

или -  Disallow: /*?

Какой вариант посоветуете?


Яндекс сам рекомендует через директиву clean param такое закрывать

Мой телеграм канал: https://t.me/zametkiseoshnika
Николай
На сайте с 12.04.2010
Offline
88
#3

Посмотрел первые 2 ссылки. Ситуация странная... Похоже на глюк Вебмастера. Ничего прилетать не должно, так как в коде https://site.ru/product-category/igry/sport/page/3/ - прописан тег canonical, указывающий на единственно правильную копию страницы, которая и должна быть проиндексирована. Все согласно рекомендаций Яндекса и Гугла.

Проверил сейчас индекс Яши (с оператором site). Так и есть: в индексе находится именно https://site.ru/product-category/igry/sport/page/3/  Никаких копий с  GET-параметрами в индексе больше нет.

Что касается добавление директив в robots.txt - можно добавить конечно, но нужно понимать, чего вы хотите добиться? robots.txt - это инструкции для поисковых роботов при штатном индексировании сайта. А если со стороннего сайта будет ссылка на неправильную страницу (то запрет на индексацию в файле  robots.txt - перестает действовать, приоритет отдается сторонней ссылке). По  крайней мере, раньше было так и именно поэтому появился тег  canonical

Впрочем, сам Яндекс тут: https://yandex.ru/support/webmaster/robot-workings/canonical.html?lang=ru - предлагает использовать директиву Clean-param в файл robots.txt.

Также можно попробовать написать в техподдержку с вопросом, откуда взялись дубли, если у вас на страницах указан тег canonical ? Интересно, что вам ответят...

Спортивные игры
Спортивные игры
  • domstadion.ru
Спортивные игры: купить в Москве недорого в интернет-магазине «Domstadion™» с быстрой доставкой по всей России. ✔Дешево ✔ Всегда скидки и акции
1. Поиск сео-дыр сайта на возможность атаки конкурентов, с целью снижения видимости сайта в поисковиках. 2. Анализирую сайты на проблемные узкие места (снижающие продажи) и показываю точки роста (для увеличения продаж). 3. Для контентных сайтов: анализ размещения рекламы и рекомендации по повышению монетизации.
W1
На сайте с 22.01.2021
Offline
306
#4
AlternateSeo #:
Яндекс сам рекомендует через директиву clean param такое закрывать

1. Через clean param удобно закрывать параметры выборочно.
2. Кроме Яндекса ещё и Гугл есть.

Мой форум - https://webinfo.guru –Там я всегда на связи
AS
На сайте с 12.07.2019
Offline
52
#5
webinfo #:

1. Через clean param удобно закрывать параметры выборочно.
2. Кроме Яндекса ещё и Гугл есть.

Спасибо кэп), исходя из проблемы ТС, его интересует именно Яндекс.

W1
На сайте с 22.01.2021
Offline
306
#6
AlternateSeo #:
именно Яндекс

Яндекс не запрещает и других способов.

SeVlad
На сайте с 03.11.2008
Offline
1609
#7
Bill_geits :
Сегодня в вебмастере прилетело сообщение

Я.Вебмастер регулярно глючит и он рассылает всякую хрень.  В выдаче нет ничего и близко похожего

Чёт inurl вообще ничего не показывает. Отменили что ли.

Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
BG
На сайте с 29.03.2018
Offline
100
#8
webinfo #:

1. Через clean param удобно закрывать параметры выборочно.
2. Кроме Яндекса ещё и Гугл есть.

Могу Вас попросить подсказать пример как правильно это сделать через  clean param?

W1
На сайте с 22.01.2021
Offline
306
#9
Bill_geits #:

Могу Вас попросить подсказать пример как правильно это сделать через  clean param?

Из инструкции Яндекса:

Clean-param: p0[&p1&p2&..&pn] [path]

Перечисляете необходимые параметры через амперсанд и при необходимости прописываете путь к страницам, где оно должно работать. Вставляете в любое место роботса.

Директива Clean-param - Вебмастер. Справка
  • yandex.ru
Используйте директиву Clean-param, если адреса страниц сайта содержат GET-параметры (например, идентификаторы сессий, пользователей) или метки (например, UTM), которые не влияют на их содержимое. Иногда для закрытия таких страниц используется директива Disallow. Рекомендуем использовать Clean-param, так как эта директива позволяет передавать...
сеобелка
На сайте с 27.04.2021
Offline
55
#10
Bill_geits :
Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами

Скажите, вы решили эту проблему?

У меня вчера прилетела аналогичная. Сайт статейник. Гугл тех адресов, что Яндекс мне предъявил, как пример критических ошибок вообще не видит, пишет такой страницы не существует.

Парадокс еще в том, что у меня 5 сайтов стоят на одной теме с почти идентичными наборами плагинов. Все настройки там делались аналогично одними и теми же руками. Проблему выдал Явебмастер только на одном. В поддержку написала, но там, сами знаете, иногда ответ можно ждать неделями.

Хостинг с круглосуточной поддержкой и большим выбором тарифов от 190 рублей в месяц https://beget.com/p1048256
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий