Canonical против дублей

A
На сайте с 05.03.2006
Offline
280
815

Всем привет!

Для борьбы с дублями все рекомендуют использовать каноникал. Сам использую.

Утверждается что дубли очень плохо. Вопрос такого плана. В чем дубли плохи для поисковиков, по сравнению с тем что такая страница отличается от дубля только тегом каноникал.

На страницу с каноникал также тратиться краулинговый бюджет.

Понимаю что при выборе релевантной такие страницы могут быть исключены из расчета и снизить затраты на перерасчет.

Но Только ли это? Либо такие страницы хранятся по особому в базе или вообще не сохраняются?

samimages
На сайте с 31.05.2009
Offline
427
#1

каноникал не решает проблему дублей, он указывает поисковику, какой дубль вебмастер считает главным... поисковик вправе положить на это указание.

А дублей быть не должно - по определению.

Опыт как иммунитет — приобретается в муках! Хостинг: экономия до 1300 руб + домен в подарок ( https://clck.ru/XLscf ) / Аудит семантики от 15К [долго] - ЛС
A
На сайте с 05.03.2006
Offline
280
#2
samimages:
каноникал не решает проблему дублей, он указывает поисковику, какой дубль вебмастер считает главным... поисковик вправе положить на это указание.

А дублей быть не должно - по определению.

Спасибо. Речь идет о карточках товаров или других страницах, типа страниц списков похожих товаров и так далее, которые формально не являются дублями, но поисковик их считает дублями.

Павел Горбунов
На сайте с 13.06.2011
Offline
123
#3
avangard:
В чем дубли плохи для поисковиков, по сравнению с тем что такая страница отличается от дубля только тегом каноникал.

дубль и неканоническая страница - это 2 разных понятия.

плохи не для ПС, а для вашего сайта - создают риск понижения уникальности контента страницы.

Не стремитесь сделать лучше - улучшайте!
PW
На сайте с 23.01.2006
Offline
123
#4

Бывают случаи когда гугл полностью игнорит каноникал и дубли продолжают висеть в индексе.

Спасался от такого только 301 редиректом где это можно было, где нельзя было редиректить - ставил тег robots noindex.

богоносец
На сайте с 30.01.2007
Offline
753
#5

meta-robots-noindex не экономит траф (лимит обращений к сайту / «краулинговый бюджет»).

А если «дубли продолжают висеть в индексе» — значит с т.з. кривого олгоритма их отсева — это и не дубли вовсе.

Вообще, что вы видите «в индексе» — это уже после неких не слишком афишируемых действий.

A
На сайте с 05.03.2006
Offline
280
#6
Павел Горбунов:
дубль и неканоническая страница - это 2 разных понятия.
плохи не для ПС, а для вашего сайта - создают риск понижения уникальности контента страницы.

Говорим про так называемые нечеткие дубликаты - похожие карточки товаров.

Которые не размывают выдачу. В выдаче правильная.

Если почитать СЕО блоги - то все называют ужасным злом и возможность санкций со стороны поисковиков.

Поэтому и вопрос - чем они поисковикам то мешают если.

а. Страница с канониклом все равно хранится в базе

б. краулинговый бюджет все равно используется.

в. Процесcорные мощности? Так яндекс несуществующие страницы с 404 Ошибкой в количестве пару миллионов может так месяца три гонять в качественные/некачественные туда сюда и ничего.

Поэтому и есть вопрос. Если не брать ответ, что действительно им по боку и сеошники просто так про это в блогах для трафа на них про это пишут:))

Чуть добавлю. На сайте есть много похожих страниц и корректировка над ними требует не малых трудозатрат. Практически вручную корректируются. Если по барабану, то может и не стоит делать? Но все рекомендуют с ними бороться.

FS
На сайте с 08.03.2011
Offline
91
#7
avangard:


а. Страница с канониклом все равно хранится в базе
б. краулинговый бюджет все равно используется.
в. Процесcорные мощности? Так яндекс несуществующие страницы с 404 Ошибкой в количестве пару миллионов может так месяца три гонять в качественные/некачественные туда сюда и ничего.

Поэтому и есть вопрос. Если не брать ответ, что действительно им по боку и сеошники просто так про это в блогах для трафа на них про это пишут:))

Чуть добавлю. На сайте есть много похожих страниц и корректировка над ними требует не малых трудозатрат. Практически вручную корректируются. Если по барабану, то может и не стоит делать? Но все рекомендуют с ними бороться.

Дубли плохи по следующим причинам:

1. Что бы там не говорили, но они расходуют мощности серверов, т.к. на некоторых сайтах есть десятки тысяч дублей, а таких сайтов сотни тысяч в рунете, во и посчитайте.

2. Дубли страниц мешают нормальной индексации сайта, иными словами значительно замедляют ее. Проиндексировать полностью сайт с 1000 товаров занимает N времени, а проиндексировать сайт с 1000 товаров и 10 000 дублей занимает N*10 времени.

3. Дубли могу привести к тому, что в индекс будут попадать не те страницы, которые бы вы хотели там видеть. Пляски с релевантностью будут.

P.S.: Не существует таких массовых корректировок, которые было бы невозможно автоматизировать, существуют недостаточно опытные программисты.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий