Как бороться с дублями tag

_
На сайте с 08.10.2011
Offline
36
588

Есть портал и на субдоменах созданы различные тематические проекты.

И система тегирования общая у всех.

Получается, что когда создается тег, скажем, "Теннис", то на всех проектах страница тега с одинаковыми мета и т.п., но только статьи различны.

Т.к. на проекте Спорт там теннис как спорт, на каком женском ресурсе в таком теге могут быть отображены самые стильные теннисистки.

В принципе, поменяйте H1 и мета, но как поменять H1, если иными слова не назовешь эти теги. Что дедать?:)

Mik Foxi
На сайте с 02.03.2011
Offline
1221
#1

теги лучше запретить от индексации. и не важно что там будет в h1

Антибот, антиспам, веб фаервол, защита от накрутки поведенческих: https://antibot.cloud/ (8 лет на защите сайтов). Форум на замену серчу: https://foxi.biz/
_
На сайте с 08.10.2011
Offline
36
#2
foxi:
теги лучше запретить от индексации. и не важно что там будет в h1

Зачем их запрещать?

На них стоят ссылки на статьи.🍿

Получается, что у нас ссылки на статьи будут только в sitemap.

87793
На сайте с 12.09.2009
Offline
661
#3
_Stasya_:
На них стоят ссылки на статьи.🍿
Получается, что у нас ссылки на статьи будут только в sitemap.

А чего - ссылки на статьи у Вас только на страницах тегов? 😕

(Ну, из человеческих страниц, sitemap не считаем)?

Наше дело правое - не мешать левому!
kybuk
На сайте с 09.12.2007
Offline
51
#4

Ссылки на статьи идут, в первую очередь, с главной, так что бот доберётся до них. Теги создают дубли. Если раньше, лет 5 назад теги работали как SEO инструмент, то теперь это вспомогательная фича для пользователей. Так что robots.txt и Disallow

87793
На сайте с 12.09.2009
Offline
661
#5
kybuk:
Теги создают дубли.

За счёт чего они создают дубли? 😕

kybuk
На сайте с 09.12.2007
Offline
51
#6
87793:
За счёт чего они создают дубли? 😕

За счёт дубля страницы с контентом (краткая новость).

big boy
На сайте с 18.11.2006
Offline
357
#7

Посмотрите для начала, какой траф идёт из ПС на страницы тегов, прежде, чем запрещать их от индексации.

Если закрывать в роботс не собираетесь, то добро пожаловать в мир боли и страдания, так как каждый тег в идеале нужно:

1) уникализировать (тайтл, написать статичный текст, хорошо отформатированный с картинками и тд)

2) закрыть в noindex анонсы статей

Сам лично загнал не один сайт под АГС из-за дублей в тегах. Пришлось много возиться с ними, чтобы вылечить. Не повторяйте чужих ошибок. Если тегов реально очень много и нет возможности, как технической, так и временной, их уникализировать, то закрывайте от индексации. Лучше пожертвовать лишь частью трафика, чем всем сайтом.

На счет ссылок на статьи только из тегов - это решается путём грамотной перелинковки. Поставьте плагин (в зависимости от cms) или стороннее решение, вроде htracer.

✔ Как я генерирую статьи через ИИ, которые приносят трафик - https://webmasta.ru/blog/16-vkalyvayut-roboty-ne-chelovek-stati-s-pomoschyu-ii-kotorye-prinosyat-trafik
87793
На сайте с 12.09.2009
Offline
661
#8
kybuk:
За счёт дубля страницы с контентом (краткая новость).

Так это смотря как страницы тегов делать :p.

_
На сайте с 08.10.2011
Offline
36
#9

Всем большое спасибо!

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий