Убрать все дубли в вп

[Удален]
545

Здравствуйте.

Подскажите, где можно прочитать подробно как закрыть от индексации все дубли в Вордпресс?

Я вообще не разбираюсь в составлении этого роботс. тхт - поэтому нужно чтобы разжеванно более менее было. И спсок всего что нужно закрыть)

ну или мб ктонибудь сможет подсказать-научить? (на пиво подкину)

Max1muS
На сайте с 27.09.2008
Offline
127
#1

Подобные вопросы можно задавать на http://forum.maxsite.org/. ЮБ и Ко всегда помогают

Diskorosi:
как закрыть от индексации все дубли в Вордпресс?

Сложно предусмотреть все возможные. Просто хотя бы для начала посмотреть, как организован роботс.тхт у других

PromoMsater
На сайте с 11.05.2010
Offline
120
#2
Diskorosi:
Здравствуйте.
Подскажите, где можно прочитать подробно как закрыть от индексации все дубли в Вордпресс?
Я вообще не разбираюсь в составлении этого роботс. тхт - поэтому нужно чтобы разжеванно более менее было. И спсок всего что нужно закрыть)
ну или мб ктонибудь сможет подсказать-научить? (на пиво подкину)

Просто поставьте плагин SEO все-в-одном и в его настройках поставьте галочки

Использовать тег noindex для рубрик:

Использовать тег noindex для архивов:

Использовать тег noindex для архивов по тегам:

D
На сайте с 01.07.2011
Offline
10
#3

Сейчас пробую сделать 3 ий сайт на вп; А так ли страшны эти дубли? У меня сайт, на главной странице делаю статическую (слышал большой + в сео) а категории идут блогом, думаю тогда категории закрывать не стоит, если неправ, поправьте?

PromoMsater
На сайте с 11.05.2010
Offline
120
#4
Dgonee:
Сейчас пробую сделать 3 ий сайт на вп; А так ли страшны эти дубли? У меня сайт, на главной странице делаю статическую (слышал большой + в сео) а категории идут блогом, думаю тогда категории закрывать не стоит, если неправ, поправьте?

Лучше закройте, так как дубли страниц - это один из факторов, приводящих к АГС

trem
На сайте с 23.07.2009
Offline
117
#5
PromoMsater:
Использовать тег noindex для рубрик:
Использовать тег noindex для архивов:
Использовать тег noindex для архивов по тегам:

И чем это поможет :D ?

Предлагаю написать в robots.txt так

User-agent: *

Disallow: /

С большой долей вероятности дублей в ПС не будет :D

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий