Какой смысл тогда держать их на сайтах...?
Здесь не соглашусь. В целом, как рабочая норма, чтобы отличать целевую страницу (например, раздела) от второстепенных и не нужных для ранжирования (страниц перечня) вполне себе адекватная установка, но к решению вышеуказанный задачи не имеет отношения.
В целом, две вышеуказанные рекомендации вполне закрывают вопрос, а то, что иногда Гугл игнорирует правила robots и редко индексируют дубли страниц с get параметрами у меня лично не возникало проблем для ранжирования целевых страниц. Честно говоря, не уверен, что такой прецедент будет вообще.
Опять вода)) У ТС - "В яндекс вебмастере заметил" , те это проблема Яндеса. Причем тут Гугл?- Адекватная, пока вам не налили на 10 ваших страниц, 1к страниц с GET параметрами- Адекватная пока вам не налили 1к страниц типа /?url=http:porevo и тому подобных
Адекватно, это когда на сайте ноль дублей страниц. И робот не шарится по сайту по 1к, вместо 10тиВсе остальное, от горе программистов, не умеющих оптимизировать сайт, и закрывающих свое неумение дополнительными параметрами, и обосновыающих это - пока претендентов нет.
Нет, так будут. В свое время писал - не должно быть дублей ( когда ввели тег canonical ) не полагайтесь на доп параметры, не грузите робота. А до многих до сих пор не дошло, что он уже не учитывается
PS Клава En. извиняюсь за ошибки)
Нет, только тех, кто сам хочет😂
Включены турбо мобильный ( декстоп нет). Скорость вообще не рассматриваю как фактор включения.Основной фактор подключения: это позиции сайта от Топ1-Топ3, т.е на первой видимой странице выдачи😊
PS Кстати ТС спасибо, дошло, почему плагином, не все страницы сайта поключаются к турбо 😊
Дополню, может учитываться некорректно и не выполнять свою задачу.
Вывод: не городите правила, на то чего нет и не должно быть.
Ага, тут даже если сеять тонны плохих ссылок и то надо еще получить результат, а то просто автоматом настроил и пошла прибыль от трафа 😀
Всем привет.
1. Использовать тег canonical
2. Прописать в robots.txt Disallow: /*?
Какой вариант вы считаете оптимальным?
- тег canonical в яндексе не учитвается с начала этого года- robots.txt Disallow: /*? - прописан толку никакого. Инлексирует все подряд, выкидывает неохотно. И так по кругу- 301 редирект, с учетом того, что увеличивается паразитный траф ботов, с разнооборазными меткамиТакой страницы /ordermy?chil=333 у вас на сайте нет, вот ее и не должно существовать в принципе
Говорю.
- тема была про дыру. Точнее про накрутку ПФ. Яндекс практически профинансировал создание мощностей для накрутки.- Были достаточно длительное время и заказчики и исполнители. На финансы заказчиков испонители и развивались- Как вы говорите и правильно банит? Так поздно уже банить. Мощности накрутчиков работают уже в других направлениях, в скликивании рекламы в том числе
Нет они для развлечения историю IP себе делают и ходят по сайтам.