Robots.txt для WordPress

drekmd
На сайте с 09.09.2011
Offline
67
715

Всем привет! У меня такая проблемка. На сайте около 47 опубликованных статьей, Гугл, проиндексировал 378 как закрыть все дубли?, перепробовал уйму способов закрытия в robots.txt, ничего не помогает...

вот сайт: extrym.org.ua

Всем за ранее спасибо!

Все тексты для своих сайтов, я заказываю тут ( http://vk.cc/24qNsd ) Сюда лью трафф, убойный конверт ( http://vk.cc/2fRcwQ )
A
На сайте с 20.08.2010
Offline
775
#1

Плагин all in one seo

drekmd
На сайте с 09.09.2011
Offline
67
#2
awasome:
Плагин all in one seo

есть, установлен, но не помогает, может не правильно настроен?...

Dwarfik
На сайте с 11.10.2008
Offline
85
#3

Не знаю как для вашего вордпресса, но для джумлы существуют компоненты ЧПУ, одной из функция которых является склейка урлов. Т.е. создаётся один красивый человекопонятный урл, а все дубли редиректятся на него. Уверен, что для ВП есть аналогичные модули/плагины/компоненты.

Потом только ручками по маске закрыть в роботсе и будет вам красота.

Либо в .htaccess самостоятельно сделать желаемый редирект, а потом прикрыть в роботсе лишнее.

А вообще вопрос для ветки новичков)

6 тип эннеаграммы
SeVlad
На сайте с 03.11.2008
Offline
1609
#4
drekmd:
перепробовал уйму способов закрытия в robots.txt

Нафига уйму? Нужно просто правильный.

Dwarfik:
Не знаю как для вашего вордпресса, но для джумлы

Dwarfik, я тебе больше скажу - у ВП вообще нет полных дублей. Единственный дублирующий адрес - это "короткий" при включении ЧПУ. Но он отдаёт 301. Так что в ПС не попадает.

Дубли о которых плачется ТС - это дублированный контент на страницах рубрик, архивов и тп. Достаточно их закрыть (если они не нужны) и будет счастье.

Принципиально не буду давать готовые решения. Мы как никак на форуме поисковых систем

Делаю хорошие сайты хорошим людям. Предпочтение коммерческим направлениям. Связь со мной через http://wp.me/P3YHjQ-3.
A
На сайте с 04.01.2012
Offline
8
#5
SeVlad:
Нафига уйму? Нужно просто правильный.


Dwarfik, я тебе больше скажу - у ВП вообще нет полных дублей. Единственный дублирующий адрес - это "короткий" при включении ЧПУ. Но он отдаёт 301. Так что в ПС не попадает.
Дубли о которых плачется ТС - это дублированный контент на страницах рубрик, архивов и тп. Достаточно их закрыть (если они не нужны) и будет счастье.

Принципиально не буду давать готовые решения. Мы как никак на форуме поисковых систем

Попробуйте так, как здесь: http://wp-voprosov.net/robots-txt-dlya-wordpress.html

User-agent: *

Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments

User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /wp-content/plugins
Disallow: /wp-content/themes
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments
Host: site.ru

Sitemap: http://site.ru/sitemap.xml
Строим сайт своими руками. Бесплатные видеоуроки по WordPress, SEO и монетизации (http://wp-voprosov.net)
KoDmAn
На сайте с 24.09.2009
Offline
42
#6
drekmd:
перепробовал уйму способов закрытия в robots.txt, ничего не помогает...

и не поможет. Гугл, мягко говоря, игнорирует robots.txt. Более-менее (т.е. тоже без вероятности в 100%) помогают плагины аля Олл-ин-сео или ручное добавление <meta name="robots" content="noindex, nofollow" /> там где надо.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий