WP и SEO

12
Юпи-с
На сайте с 30.07.2006
Offline
230
1018

Всем привет, столкнулся с индексацией дублей в WP

Индексирует все тэги, рубрики. Как с этим бороться? Запретить в роботс тэги индексировать?

D
На сайте с 30.09.2008
Offline
107
#1
Юпи-с:
Индексирует все тэги, рубрики. Как с этим бороться? Запретить в роботс тэги индексировать?

Было подобное на блоге на вп. Причем гугл индексировал категории и архивы, невзирая на то что они в роботсе были закрыты (Яндекс не индексировал).

Решил проблему тем, что убрал строку:

<meta name="robots" content="follow, all" />

PS. Точнее "решил" будет громко сказано, но постепенно (медленно очень) гугл выкидывает лишние страницы из индекса.

Юпи-с
На сайте с 30.07.2006
Offline
230
#2

DC***, спасибо, это где такая строчка?

Я вот думаю, может плагин есть какой, проблема то не единичная, думаю у всех подобное возникает...

InHunt
На сайте с 14.12.2010
Offline
99
#3

В помощь вам плагин All in One SEO Pack. Ставим галочки напротив:

Use noindex for Categories:

Use noindex for Archives:

Use noindex for Tag Archives:

[Удален]
#4

эта строка обычно в header.php

D
На сайте с 30.09.2008
Offline
107
#5

Опередили, потерто

[Удален]
#6

InHunt, +1 All-in-one рулит

D
На сайте с 30.09.2008
Offline
107
#7
InHunt:
В помощь вам плагин All in One SEO Pack. Ставим галочки напротив:
Use noindex for Categories:
Use noindex for Archives:
Use noindex for Tag Archives:

И что? Стоит этот плагин, выставлены галочки, все равно индексировались и категории и архивы (гуглом). В роботсе в любом случае нужно закрывать, если дубли не нужны конечно.

[Удален]
#8

DC***, а у вас какая версия плагина и wp? у меня на старых блогах (wp версии 2.ххх) плагин нормально работает

D
На сайте с 30.09.2008
Offline
107
#9
mansursp:
DC***, а у вас какая версия плагина и wp? у меня на старых блогах (wp версии 2.ххх) плагин нормально работает

Всегда последняя версия, обновляю регулярно. Настроенный All in One SEO + роботс.txt помогают избежать индексации рубрик и архивов в Яндексе.

Гугл же все равно их у меня индексировал, хотя анализатор роботса в гугл вебмастер говорит что роботс составлен верно и такие то страницы действительно запрещены. В общем проблема решилась способом, который я написал в первом посте :). Постепенно вываливаются дубли из индекса. На счет правильности данного способа конечно не могу ручаться, но что есть, то есть.

[Удален]
#10

ок, спасибо вам.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий