Учет canonical в Яндекс

12 3
O
На сайте с 28.07.2009
Offline
131
2305

Хватаюсь за сердце, а там традиционная ерунда. Дубликаты страниц

highlight:
https://olegon.ru/showthread. php?t=33678
https://olegon.ru/showthread. php?t=33678&highlight=%D0%B2% D0%B5%D1%81%D1%8B
  • highlight:
    https://olegon.ru/showthread. php?t=13090
    https://olegon.ru/showthread. php?t=13090&highlight=%EF%EE% E4%E0%F0%EE%EA
  • highlight:
    https://olegon.ru/showthread. php?t=27994
    https://olegon.ru/showthread. php?t=27994&highlight=digi+sm- 5100

  • Собственно, просто кто-то, видимо, пользовался поиском. Ничего криминального. Тем более, что на странице много лет стоит canonical.
    Внимание, вопрос, как заставить Яндекс учитывать этот canonical?  Ниже в сообщении справка и указано

    Как оставить в поиске нужную страницу

        Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
        Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.

    То есть задуманное не работает?


    занимаюсь автоматизацией торговли (http://olegon.ru)
    Антоний Казанский
    На сайте с 12.04.2007
    Offline
    617
    #1
    olegon :
    То есть задуманное не работает?

    C чего вы это взяли? Всё работает, если правильно использовать.

    Вы понимаете различие между действием инструкции clean-param и тега canonical?

    Это два разных инструмента, первый - определяет как будут обрабатываться url адреса, второй - определяет лишь рекомендацию при индексации. 

    √ SEO продвижение https://akazansky.ru - экспертный аудит сайтов ( https://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обучение автоматизации с помощью Zennoposter https://goo-gl.me/6Zypu
    minsky
    На сайте с 01.09.2012
    Offline
    161
    #2
    Я долго не парился и просто поставил Disallow: /*&*
    Продвигаю сайты ссылками, ускоряю индексацию сайтов и отдельных страниц ( https://kwork.ru/user/minsky?ref=23382 )
    Vladimir
    На сайте с 07.06.2004
    Offline
    531
    #3
    olegon :

    Хватаюсь за сердце, а там традиционная ерунда. Дубликаты страниц

    То есть задуманное не работает?

    Не работает, ни роботс, ни каноникал
    Есдинственный метод, это не должно быть дублей страниц на сайте

    PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
    Ну и при таком количестве дублей , МПК в шаге от вашего сайта

    Аэройога ( https://vk.com/aeroyogadom ) Йога в гамаках ( https://vk.com/aero_yoga ) Аэройога обучение ( https://aeroyoga.ru ) и просто фото ( https://weandworld.com )
    minsky
    На сайте с 01.09.2012
    Offline
    161
    #4
    Vladimir #:

    Не работает, ни роботс

    Работает, уже проверил, сам интересовался https://searchengines.guru/ru/forum/1087052

    После обновления ПС почти все удалились и новых нету)

    Антоний Казанский
    На сайте с 12.04.2007
    Offline
    617
    #5
    Vladimir #:
    Не работает, ни роботс, ни каноникал

    Чушь полная. Сразу понятно, кто тут теоретик.

    Вот относительно свежий живой пример отсева лишних get параметров по clean-param после применения доп. инструкции.

    Всё работает, если правильно пользоваться и корректно настраивать.

    Не вводите людей в заблуждение.

    JS
    На сайте с 19.11.2020
    Offline
    98
    #6
    Vladimir #:

    Не работает, ни роботс, ни каноникал
    Есдинственный метод, это не должно быть дублей страниц на сайте

    PS Если, кто то отпишет, что это не так, не верьте - это теоретики.
    Ну и при таком количестве дублей , МПК в шаге от вашего сайта

    Все работает. Но можете мне не верить, я теоретик)

    12

    Vladimir
    На сайте с 07.06.2004
    Offline
    531
    #7
    John Silver #:

    Все работает. Но можете мне не верить, я теоретик)

    Да, верю, что вы теоретики, и серч не читаете)

    И каноникал, и роботс это рекомендации для ПС, а не правила. Которые ПС могут не учитывать.
    Что Яндекс периодически и делает. Выкинет основную страницу, дубль в индекс закинет.
    Он естественно, ой исправится через сутки или через неделю...но
    Вам ТС прямо об этом и пишет....

    Но вам то, что Если Топовую страницу выкинет, и когда она назад попадет, вас это же не интересует. Сайты то клиентские.

    А так да бред, следуйте и далее своим правилам теоретики))

    Ответ, для ТС все работает, т.е через сколько дней Я исправит согласно роботс
    Ну и тд по кругу, пока не удалишь дубли.

    Shelton724
    На сайте с 26.05.2011
    Offline
    234
    #8
    Можно взглянуть на это с другой стороны. Просто (скорее всего) активна функция переобхода страниц по счётчику, логично добавить условие, что если есть в адресе всякие GET, то код счётчика на такую страницу не отдавать.
    Vladimir
    На сайте с 07.06.2004
    Offline
    531
    #9
    Shelton724 #:
    Можно взглянуть на это с другой стороны. Просто (скорее всего) активна функция переобхода страниц по счётчику, логично добавить условие, что если есть в адресе всякие GET, то код счётчика на такую страницу не отдавать.
    Почему бы не взлянуть правильно не удаляя счетчик, и оптимизировать crawl бюджет?
    А потом удивляетесь, почему выписали МПК
    samimages
    На сайте с 31.05.2009
    Offline
    427
    #10
    Vladimir #:
    А так да бред, следуйте и далее своим правилам теоретики))

    Ну вот просто: Зачем?

    Они же в шаге от того чтобы скачать файл индексации и своими глазами посмотреть на индекс, но не будут этого делать... просто потому что не будут.

    Причем из виду упускается уровень риска, как несущественная деталь, т.е. признается что каноникал это рекомендация и тут же предлагается закрывать ей дубли, т.е. страницы несущие не рекомендательные сообщения в явм, а конкретные проблемы в ранжировании.

    Это как с оптимизацией <head>, хочешь услышать какое ты говно, посоветуй вычистить <head>))))

    Кроме того старт пост вполне себе цельно подает информацию: у меня дубли - это нормально

    Опыт как иммунитет — приобретается в муках! Хостинг: экономия до 1300 руб + домен в подарок ( https://clck.ru/XLscf ) / Аудит семантики от 15К [долго] - ЛС
    12 3

    Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий