- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всем привет!
Для борьбы с дублями все рекомендуют использовать каноникал. Сам использую.
Утверждается что дубли очень плохо. Вопрос такого плана. В чем дубли плохи для поисковиков, по сравнению с тем что такая страница отличается от дубля только тегом каноникал.
На страницу с каноникал также тратиться краулинговый бюджет.
Понимаю что при выборе релевантной такие страницы могут быть исключены из расчета и снизить затраты на перерасчет.
Но Только ли это? Либо такие страницы хранятся по особому в базе или вообще не сохраняются?
каноникал не решает проблему дублей, он указывает поисковику, какой дубль вебмастер считает главным... поисковик вправе положить на это указание.
А дублей быть не должно - по определению.
каноникал не решает проблему дублей, он указывает поисковику, какой дубль вебмастер считает главным... поисковик вправе положить на это указание.
А дублей быть не должно - по определению.
Спасибо. Речь идет о карточках товаров или других страницах, типа страниц списков похожих товаров и так далее, которые формально не являются дублями, но поисковик их считает дублями.
В чем дубли плохи для поисковиков, по сравнению с тем что такая страница отличается от дубля только тегом каноникал.
дубль и неканоническая страница - это 2 разных понятия.
плохи не для ПС, а для вашего сайта - создают риск понижения уникальности контента страницы.
Бывают случаи когда гугл полностью игнорит каноникал и дубли продолжают висеть в индексе.
Спасался от такого только 301 редиректом где это можно было, где нельзя было редиректить - ставил тег robots noindex.
meta-robots-noindex не экономит траф (лимит обращений к сайту / «краулинговый бюджет»).
А если «дубли продолжают висеть в индексе» — значит с т.з. кривого олгоритма их отсева — это и не дубли вовсе.
Вообще, что вы видите «в индексе» — это уже после неких не слишком афишируемых действий.
дубль и неканоническая страница - это 2 разных понятия.
плохи не для ПС, а для вашего сайта - создают риск понижения уникальности контента страницы.
Говорим про так называемые нечеткие дубликаты - похожие карточки товаров.
Которые не размывают выдачу. В выдаче правильная.
Если почитать СЕО блоги - то все называют ужасным злом и возможность санкций со стороны поисковиков.
Поэтому и вопрос - чем они поисковикам то мешают если.
а. Страница с канониклом все равно хранится в базе
б. краулинговый бюджет все равно используется.
в. Процесcорные мощности? Так яндекс несуществующие страницы с 404 Ошибкой в количестве пару миллионов может так месяца три гонять в качественные/некачественные туда сюда и ничего.
Поэтому и есть вопрос. Если не брать ответ, что действительно им по боку и сеошники просто так про это в блогах для трафа на них про это пишут:))
Чуть добавлю. На сайте есть много похожих страниц и корректировка над ними требует не малых трудозатрат. Практически вручную корректируются. Если по барабану, то может и не стоит делать? Но все рекомендуют с ними бороться.
а. Страница с канониклом все равно хранится в базе
б. краулинговый бюджет все равно используется.
в. Процесcорные мощности? Так яндекс несуществующие страницы с 404 Ошибкой в количестве пару миллионов может так месяца три гонять в качественные/некачественные туда сюда и ничего.
Поэтому и есть вопрос. Если не брать ответ, что действительно им по боку и сеошники просто так про это в блогах для трафа на них про это пишут:))
Чуть добавлю. На сайте есть много похожих страниц и корректировка над ними требует не малых трудозатрат. Практически вручную корректируются. Если по барабану, то может и не стоит делать? Но все рекомендуют с ними бороться.
Дубли плохи по следующим причинам:
1. Что бы там не говорили, но они расходуют мощности серверов, т.к. на некоторых сайтах есть десятки тысяч дублей, а таких сайтов сотни тысяч в рунете, во и посчитайте.
2. Дубли страниц мешают нормальной индексации сайта, иными словами значительно замедляют ее. Проиндексировать полностью сайт с 1000 товаров занимает N времени, а проиндексировать сайт с 1000 товаров и 10 000 дублей занимает N*10 времени.
3. Дубли могу привести к тому, что в индекс будут попадать не те страницы, которые бы вы хотели там видеть. Пляски с релевантностью будут.
P.S.: Не существует таких массовых корректировок, которые было бы невозможно автоматизировать, существуют недостаточно опытные программисты.