- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Здравствуйте, имеется интернет магазин на Wp. Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами
Пример страниц:
https://site.ru/product-category/igry/sport/page/3/?
https:// site.ru /product-category/igry/sport/page/3/?add-to-cart=4888
https:// site.ru /product-category/igry/shashki/page/3/?per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/?per_page=9&shop_view=listhttps:// site.ru /product-category/igry/shashki/page/3/?per_row=3&per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/?per_row=2&per_page=9&shop_view=list
Хочу исправить следующим образом:
Disallow: /?fakeparam=
или - Disallow: /*?
Какой вариант посоветуете?
Здравствуйте, имеется интернет магазин на Wp. Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами
Пример страниц:
https://site.ru/product-category/igry/sport/page/3/?
https:// site.ru /product-category/igry/sport/page/3/?add-to-cart=4888
https:// site.ru /product-category/igry/shashki/page/3/?per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/?per_page=9&shop_view=listhttps:// site.ru /product-category/igry/shashki/page/3/?per_row=3&per_page=9&shop_view=list
https:// site.ru /product-category/igry/shashki/?per_row=2&per_page=9&shop_view=list
Хочу исправить следующим образом:
Disallow: /?fakeparam=
или - Disallow: /*?
Какой вариант посоветуете?
Яндекс сам рекомендует через директиву clean param такое закрывать
Посмотрел первые 2 ссылки. Ситуация странная... Похоже на глюк Вебмастера. Ничего прилетать не должно, так как в коде https://site.ru/product-category/igry/sport/page/3/ - прописан тег canonical, указывающий на единственно правильную копию страницы, которая и должна быть проиндексирована. Все согласно рекомендаций Яндекса и Гугла.
Проверил сейчас индекс Яши (с оператором site). Так и есть: в индексе находится именно https://site.ru/product-category/igry/sport/page/3/ Никаких копий с GET-параметрами в индексе больше нет.
Что касается добавление директив в robots.txt - можно добавить конечно, но нужно понимать, чего вы хотите добиться? robots.txt - это инструкции для поисковых роботов при штатном индексировании сайта. А если со стороннего сайта будет ссылка на неправильную страницу (то запрет на индексацию в файле robots.txt - перестает действовать, приоритет отдается сторонней ссылке). По крайней мере, раньше было так и именно поэтому появился тег canonical
Впрочем, сам Яндекс тут: https://yandex.ru/support/webmaster/robot-workings/canonical.html?lang=ru - предлагает использовать директиву Clean-param в файл robots.txt.
Также можно попробовать написать в техподдержку с вопросом, откуда взялись дубли, если у вас на страницах указан тег canonical ? Интересно, что вам ответят...
Яндекс сам рекомендует через директиву clean param такое закрывать
1. Через clean param удобно закрывать параметры выборочно.
2. Кроме Яндекса ещё и Гугл есть.
1. Через clean param удобно закрывать параметры выборочно.
2. Кроме Яндекса ещё и Гугл есть.
Спасибо кэп), исходя из проблемы ТС, его интересует именно Яндекс.
именно Яндекс
Яндекс не запрещает и других способов.
Сегодня в вебмастере прилетело сообщение
Я.Вебмастер регулярно глючит и он рассылает всякую хрень. В выдаче нет ничего и близко похожего
Чёт inurl вообще ничего не показывает. Отменили что ли.
1. Через clean param удобно закрывать параметры выборочно.
2. Кроме Яндекса ещё и Гугл есть.
Могу Вас попросить подсказать пример как правильно это сделать через clean param?
Могу Вас попросить подсказать пример как правильно это сделать через clean param?
Из инструкции Яндекса:
Перечисляете необходимые параметры через амперсанд и при необходимости прописываете путь к страницам, где оно должно работать. Вставляете в любое место роботса.
Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами
Скажите, вы решили эту проблему?
У меня вчера прилетела аналогичная. Сайт статейник. Гугл тех адресов, что Яндекс мне предъявил, как пример критических ошибок вообще не видит, пишет такой страницы не существует.
Парадокс еще в том, что у меня 5 сайтов стоят на одной теме с почти идентичными наборами плагинов. Все настройки там делались аналогично одними и теми же руками. Проблему выдал Явебмастер только на одном. В поддержку написала, но там, сами знаете, иногда ответ можно ждать неделями.