- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Столкнулся с такой проблемой, как дубли в листалках.
Темы обсуждались, но что-то каша какая-то.
Хочется собрать все в одно.
1. Способ - rel=“next” и rel=“prev” в head
2. Способ - rel=“next” и rel=“prev” прям в ссылках
3. Способ- rel=«canonical»
4. Способ- Различные манипуляции с кодом, текстом и д.р
5. Способ- Закрыть все в Робот.тхт.
Подробно.
5. - Не обсуждается сразу, считаю это не правильно. Робот.тхт не для этого сделан. Хотя зачастую, дубли которые генерит CMS, народ просто закрывает, а не решает проблему системно.
4. - Наверно нет смысла что-то усложнять, когда есть для этого атрибут rel
3. - rel=«canonical»
Хорошее решения, и подходит для всех. Хотя, гугл рекомендует ссылаться на "Всё"
2,3 - Так же хорошее решения, вот только какая разница между ними?
И правильно ли присваивать rel=“next” и rel=“prev” прям ссылке, или же нужно помещать в head документа.
Почему вы считаете неправильным закрыть по маске страницы с пагинацией, при том, что карта сайта + перелинковка обеспечат индексацию всех страниц сайта?
Не нужно закрывать от индексации страницы с разным контентом. Уникализируйте title и h1 добавив туда номер страницы.
Катушки для спиннинга
Катушки для спиннинга 2
Катушки для спиннинга 3
и т.д. по аналогии.
Не нужно закрывать от индексации страницы с разным контентом. Уникализируйте title и h1 добавив туда номер страницы.
Катушки для спиннинга
Катушки для спиннинга 2
Катушки для спиннинга 3
и т.д. по аналогии.
Если у вас 20 категорий и на главной 70 тысяч страниц. И страницы не имею постоянного урл, а спускаются вниз. Это точно не вариант. По факту говорю 90% страниц считаются дублями.
Склоняюсь к методу
1. Способ - rel=“next” и rel=“prev” в head
а также прописать rel=«canonical» на первую страницу раздела. гугл разрешает использовать сразу два способа. А яндекс не поддерживает next и prev. Помимо пагинации, на сайте есть подгрузка последующих страниц по аяксу.
Может быть на главной не делать так, а только в разделах? Как считаете?
Если у вас 20 категорий и на главной 70 тысяч страниц. И страницы не имею постоянного урл, а спускаются вниз. Это точно не вариант. По факту говорю 90% страниц считаются дублями.
Склоняюсь к методу
1. Способ - rel=“next” и rel=“prev” в head
а также прописать rel=«canonical» на первую страницу раздела. гугл разрешает использовать сразу два способа. А яндекс не поддерживает next и prev. Помимо пагинации, на сайте есть подгрузка последующих страниц по аяксу.
Может быть на главной не делать так, а только в разделах? Как считаете?
Прошу прощения, не могли бы Вы скинуть ссылку, где гугл пишет, что поддерживает 2 способа. Спасибо
По теме, 1 способ - рел прев и некст, в тайтл добавляется нумерация страниц. Так и пишите Газонокосилки страница 2 (тайтл должен повторять название категории, а не тайтл первой страницы), так же исключить дублирование текста(если он есть) на страницах пагинации.
Поисковая система будет считать это дублем, если сама их закроет и напишет, что эти страницы не канонические.
Я как понимаю, основное Ваше желание, это получить "нормальную" индексацию карточек товаров. Сугубо из своего опыта скажу, что даже если прописывать каноникал на страницах пагинации (на основную), то карточки товаров не потеряется, робот точно так же пойдет по неканоническим страницам и перейдет по ссылкам на карточки товара. Надеюсь Вы позаботились о корректном сайтмапе
Прошу прощения, не могли бы Вы скинуть ссылку, где гугл пишет, что поддерживает 2 способа. Спасибо
По теме, 1 способ - рел прев и некст, в тайтл добавляется нумерация страниц. Так и пишите Газонокосилки страница 2 (тайтл должен повторять название категории, а не тайтл первой страницы), так же исключить дублирование текста(если он есть) на страницах пагинации.
Поисковая система будет считать это дублем, если сама их закроет и напишет, что эти страницы не канонические.
Я как понимаю, основное Ваше желание, это получить "нормальную" индексацию карточек товаров. Сугубо из своего опыта скажу, что даже если прописывать каноникал на страницах пагинации (на основную), то карточки товаров не потеряется, робот точно так же пойдет по неканоническим страницам и перейдет по ссылкам на карточки товара. Надеюсь Вы позаботились о корректном сайтмапе
https://support.google.com/webmasters/answer/1663744?hl=ru
Я думаю, что проблем две.
1. Сайт часто обновляется и контент на страницах уходит вниз. Проиндексировать все сразу робот не может, поэтому получаются дубли.
2. Плюс в категориях точно такие же превью к новостям, поэтому опять же дубли.
А если использовать только тег prev а next не ставить? или если некст будет на последней странице? как думаете что лучше? не хочется еще один запрос в бд добавлять.
3. - rel=«canonical»
Хорошее решения, и подходит для всех. Хотя, гугл рекомендует ссылаться на "Всё"
самый плохой вариант - настроить правильно обработку get параметров на многих цмс практически не возможно, а значит робот пс будет индексировать страницы вида site.ru/page1?p=3&совсем-плохие-слова
и понимать что канонической страницей для неё является site.ru/page1 🤪
робот пс будет индексировать страницы вида site.ru/page1?p=3&совсем-плохие-слова
и понимать что канонической страницей для неё является site.ru/page1 🤪
Ну это же не значит, что эти самые [совсем-плохие-слова] будут как-либо учтены в ранжировании и что по ним будет искаться страница site.ru/page1?p=3. Хотя конечно надо бы проверить.
IBakalov, при правильном проспаме - гугл из основного поиска выкидывает ;)
IBakalov, при правильном проспаме - гугл из основного поиска выкидывает ;)
имеете ввиду козни конкурентов?
имеете ввиду козни конкурентов?
не самое смешное - обычно этим школо спамеры занимаются, до вашего ресурса им дела вообще нет :)