rel canonical на практике?

12
maviska
На сайте с 22.09.2008
Offline
137
1413

Статей про него много. А вот реально помогло кому то улучшить позиции статейных сайтов с этим тэгом? Я понимаю, что надо все делать правильно и без ошибок, но вордпресс плагины просто позволяют поставить галочку и наслаждаться процессом. вопрос в том, стоит ли? если допустим сайт получает нормальный и даже хороший трафик. страницы типа категории и архивы не закрыты от индексации, но к статьям прописаны уникальные описания, которые отображаются в категориях и вроде как не так уж и повторяется контент. при желании сделать лучше, как бы не сделать хуже? не нравится, что ВЧ никак не хотят в топ лезть, даже при маленькой конкуренции. ( про ссылки молчу, на статейный сайт на каждую страницу по естественных вечных 10 ссылок не купить ).

Есть кто улучшил реально позиции после установки этого тэга, особенно интересует мнение статейников и контекстников...

lockki
На сайте с 03.08.2010
Offline
123
#1

вы походу не поняли, что это =)

есть одна страница доступная по 2м урлам.

вот на 1урл пишется, что он дубль и основная 2 страница (делается с помощью rel canonical). Это чтобы дублей не было.

страниц может быть сколько угодно.

Список алгоритмов поисковой системы Яндекс (https://evertop.pro/algorithm-yandex/) Список алгоритмов поисковой системы Google (https://evertop.pro/algorithm-google/) Пошаговая инструкция по Яндекс.Метрике (https://evertop.pro/how-yandex-metrika/)
siv1987
На сайте с 02.04.2009
Offline
427
#2
maviska:
А вот реально помогло кому то улучшить позиции статейных сайтов с этим тэгом?

canonical не для увеличения позиции, а для определения канонической страницы которая доступна по нескольким адресам. Чтобы не плодить дубли в индексе и бот правильно определил канонический адрес страниц.

theextra
На сайте с 05.01.2014
Offline
16
#3

Настройка канонических URL используется для закрытия страниц, которые содержат нечеткие дубли (частичные дубли) других страниц. Например страницы с ассортиментом товара, но с разной сортировкой. Так вот на всех страницах-сортировках прописывается канонические URL. Тоже самое можно сделать, настроив параметр Clean-param в robots.txt.

Был очень крупный портал недвижимости и там было очень много нечетких дублей для страниц с квартирами - много различных сортировок: по комнатам, цене, площади, удаленности от города и т. п. Проблема в том, что индекс замусорится такими ненужными страницы и из-за квоты индексации не могли в индекс попасть нужные страницы - целевые. Так вот после настройки - мусорные страницы выпали, а нужные зашли. Трафик сильно подрос.

реально всем советую, хорошая штука.

Более подробно читайте в справке Яндекса - там все очень хорошо написано

Гарантированное продвижение сайтов. Полный комплекс. Реальные кейсы. «Иголка в стоге сена» | www.seograde.ru (http://seograde.ru/) | info@seograde.ru | Skype: seograde | Наше портфолио: см. тут (http://seograde.ru/portfolio)
FA
На сайте с 04.07.2013
Offline
61
#4

Попало в индекс много дублей от пагинации страниц. Год назад настроили этот тег, со всех страниц на первую. До сих пор в индексе "дубли", и они даже умудряются попадать в выдачу.

zhurikzzz
На сайте с 16.09.2012
Offline
87
#5
fisher_ak:
До сих пор в индексе "дубли", и они даже умудряются попадать в выдачу.

В Яндексе и Гугле есть инструменты по удалению ненужных урлов из индекса.

bigBuyer
На сайте с 12.09.2013
Offline
65
#6

Плотно изучал этот вопрос, выслушал разные мнения. Несколько авторитетных оптимизаторов высказывали мнение, что каноникал не гарантирует на 100% защиту от нечётких дублей. Взамен было предложено внедрять на таких страницах мета ноуиндекс нофолоу.

Развиваю свой ИМ.
FA
На сайте с 04.07.2013
Offline
61
#7
zhurikzzz:
В Яндексе и Гугле есть инструменты по удалению ненужных урлов из индекса.

Дак я их не удаляю, так как по ним есть некоторый трафик...Не знаю - стоит ли удалять...

CH
На сайте с 27.06.2011
Offline
90
#8

Всё, что неканоническое - неиндексируется. По глупости однажды страницы пагинации сделал неканоническими и тем самым закрыл от индексации и хождения роботом. а как открыл, так получил прирост трафика. Для себя решил, что проще в robots убирать дубли и всё ненужное.

nn165m
На сайте с 05.08.2012
Offline
220
#9

у вас есть большой текст который лежит на 3 страницах

сайт/страница1

сайт/страница2

сайт/страница3

по логике вещей, это одна страница но там тонна контента и вы ее или система разбила на три. rel canonical указывает для ПС что стр2 и стр3 не нужно индексировать, и основной для них является стр1

это если ну прям очень простым языком:)

хотя блин столько печатал а выше ответили уже)

Хостинг от 115р./мес./самые адекватные саппорты:) ( http://beget.ru/?id=34668 ) Чистые дедики по разумной цене ( http://vpserver.pro ) Аренда VPS (https://ruvps.org/ )
SV
На сайте с 03.11.2008
Offline
1394
#10
lockki:
вы походу не поняли, что это =)

И не только это.. ВП и без всяких плагинов каноникал прописывает правильно (кроме некстпейдж). А плагинами как раз это поведение может меняться.

Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Топики помощи с ⓌordPress (https://searchengines.guru/ru/forum/1032910 ) и основы безопасности сайтов ( https://searchengines.guru/ru/forum/774117 ). *** Помощь\консультации в топиках форума - БЕСПЛАТНО. Платные услуги ( https://wp.me/P3YHjQ-3 ) - с бюджетом от 150$ ***
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий