Практика на самом деле неплохая, для тех кого подкидывало, а потом ставило обратно на свои места с небольшими изменениями. Это позволило получить больший интерес и бесплатный контент для сайтов, у которых контент создают сами пользователи. Но есть и определенные проблемы, например сложно объяснить руководству потирающему руки, что все закончилось.
Сколько всего дней у вас были плохие позиции?
Что там неверно?) Все работает у меня, юзаю так как написал выше.
Clean-param: items_per_page
1. Через clean param удобно закрывать параметры выборочно.2. Кроме Яндекса ещё и Гугл есть.
Спасибо кэп), исходя из проблемы ТС, его интересует именно Яндекс.
Здравствуйте, имеется интернет магазин на Wp. Года 4 совершенно не трогал файл robots .txt . Сегодня в вебмастере прилетело сообщение -Найдены страницы-дубли с GET-параметрами
Пример страниц:
https://site.ru/product-category/igry/sport/page/3/?https:// site.ru /product-category/igry/sport/page/3/?add-to-cart=4888
https:// site.ru /product-category/igry/shashki/page/3/?per_page=9&shop_view=listhttps:// site.ru /product-category/igry/shashki/page/3/?per_row=3&per_page=9&shop_view=list
Хочу исправить следующим образом:
Disallow: /?fakeparam=
или - Disallow: /*?
Какой вариант посоветуете?
Яндекс сам рекомендует через директиву clean param такое закрывать
Как раз собираюсь внедрять такую форму) Подскажите по какому правилу вы выводите? У меня каталоги объектов, среднее время 2мин, средняя глубина 2.
А какая у вас тематика и в какой день упало?)