Чем грозит такое дублирование тайтлов?

12
A
На сайте с 16.03.2009
Offline
12
1218

Блог на WP.

В webmasters tools видно, что Гугл воспринимает все страницы в двойном экземпляре:

/category/page/subpage/

/category/page/subpage/index.html

Соответственно, с точки зрения Гугла все страницы сайта существуют в двойном экземпляре с одинаковыми тайтлами. На самом сайте все ссылки даны строго на index.html, в sitemap.xml тоже указываются правильно, т.е. видимых вариантов "subpage/" без "index.html" я не нашёл.

Вопрос: в чём может быть причина, какие могут быть санкции от Гугла, и есть ли стандартные методы исправления ситуации?

Kirik
На сайте с 13.04.2006
Offline
266
#1

в роботсе не пробовали закрыть?

или 301 с /category/page/subpage/index.html на /category/page/subpage/ делать?

~~ Продвижение сайтов (https://kirik.pro/) ~~ PRPosting.com (https://prposting.com) - ссылки под бурж, 100+ стран, 45000 доноров, партнерка с 5% от трат ~~ Копирайтинг и рерайтинг (https://wordfactory.ua/)
Сеодром
На сайте с 27.11.2007
Offline
187
#2

Чем грозит? Сначала часть страниц уйдет в сопли, потом вообще исчезнет из индекса.

На этой партнёрке я получаю немного баксов в неделю , зато постоянно: https://goo.su/z9gsI2
A
На сайте с 16.03.2009
Offline
12
#3
Kirik:
в роботсе не пробовали закрыть?
или 301 с /category/page/subpage/index.html на /category/page/subpage/ делать?

Это вордпресс, там внутренний реврайт и внутренняя генерация роботса. То есть физически нет ни файла robots.txt, ни самих каталогов/файлов.

Как залезть во внутренности вордпресса - я к сожалению не знаю.

adaliska добавил 20.03.2009 в 20:13

На основании этой статьи http://googlewebmastercentral.blogspot.com/2009/02/specify-your-canonical.html

поставил вот такой тэг:

<link rel="canonical" href="<?php the_permalink(); ?>" />

Что скажете по этому поводу? Решит ли это проблему с дублированием?

Bdiang
На сайте с 19.07.2006
Offline
102
#4

Проблему то конечно решит, но Canonical рекомендуют использовать для нечетких дублей, например страницы с разной сортировкой данных. От 100% дублей лучше избавляться совсем.

alex_ar
На сайте с 11.12.2008
Offline
37
#5
Bdiang:
От 100% дублей лучше избавляться совсем.

Как хорошо, что придумали CMS, которая решает эту проблему очень легко.

seoBB
На сайте с 18.01.2009
Offline
96
#6
alex_ar:
Как хорошо, что придумали CMS, которая решает эту проблему очень легко.

а поконкретнее можно?

Выгрузки из Ahrefs, Majestic, SpyWords, Serpstat, SemRush (/ru/forum/comment/14267658) VDS хостинг: СКИДКИ + фантастическая тех.поддержка! (https://my.friendhosting.net/pl.php?6652)
yanus
На сайте с 21.01.2009
Offline
348
#7
adaliska:
Это вордпресс, там внутренний реврайт и внутренняя генерация роботса. То есть физически нет ни файла robots.txt, ни самих каталогов/файлов.

так а если создать вручную роботс и кинуть в коревую папку? а после этого уже можно запретить индексацию УРЛ, содержащие ненужную часть.

Kirik
На сайте с 13.04.2006
Offline
266
#8
adaliska:
Это вордпресс, там внутренний реврайт и внутренняя генерация роботса. То есть физически нет ни файла robots.txt, ни самих каталогов/файлов.
Как залезть во внутренности вордпресса - я к сожалению не знаю.

ДА? А кто придумал ФТП и почему у меня на моем ВП я могу задать роботс а если припрет то и .htaccess изменить?

A
На сайте с 16.03.2009
Offline
12
#9
Kirik:
ДА? А кто придумал ФТП и почему у меня на моем ВП я могу задать роботс а если припрет то и .htaccess изменить?

Kirik, не спешите с выводами.

Это же не набор заранее известных страниц. Это блог, который пополняется постами ежедневно, руками и автоматом из RSS. Каждый пост имеет пермалинк примерно в том виде, который я привёл в начале топика. Если вы знаете какой-то волшебный способ, чтобы заранее прописать в роботсе/хтаксессе нужные редиректы на все случаи жизни - поделитесь пожалуйста, я буду только рад.

yanus
На сайте с 21.01.2009
Offline
348
#10
adaliska:
Kirik, не спешите с выводами.
Это же не набор заранее известных страниц. Это блог, который пополняется постами ежедневно, руками и автоматом из RSS. Каждый пост имеет пермалинк примерно в том виде, который я привёл в начале топика. Если вы знаете какой-то волшебный способ, чтобы заранее прописать в роботсе/хтаксессе нужные редиректы на все случаи жизни - поделитесь пожалуйста, я буду только рад.

allow: *index.html

disallow: /

все что с index.html в индексе, все что нет - не в индексе

проверить работоспособность можно здесь:

http://webmaster.yandex.ru/wmconsole/public_robots_txt.xml

http://www.google.com/support/webmasters/bin/answer.py?answer=35237&topic=8475

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий