Как закрыть индексацию фидов?

S
На сайте с 11.01.2012
Offline
48
1632

Блог на wordpress

Гугл индексирует страницы с фидами, хотя они закрыты в robots.txt

В "соплях" гугла индесация типа:

******.ru/komputer/zhelezo/feed

A description for this result is not available because of this site's robots.txt – learn more.

Понятно, что несмотря на закрытие в роботсе, гугл будет индексировать, т.к. очевидно, где-то имеется ссылка на этот (вордпресс где-то генерирует ссылку,которую, как предполагается нужно закрыть noindex) фид -гугл заходит по этой ссылке и страницу загогяет в индекс.

Кто знает, как это дело прекратить?

Попытки создать свой сайт (http://delajblog.ru/)
Covax
На сайте с 09.02.2012
Offline
119
#1

Откройте страницы фидов в robots.txt и в их <head> вставьте <meta name="robots" content="noindex">. Также можно воспользоваться тулзой https://www.google.com/webmasters/tools/removals

S
На сайте с 11.01.2012
Offline
48
#2
Covax:
Откройте страницы фидов в robots.txt и в их <head> вставьте <meta name="robots" content="noindex">. Также можно воспользоваться тулзой https://www.google.com/webmasters/tools/removals

Понятно. Только:

При опубликовании новой статьи будет появлятся новая страница фида и вручную каждый раз вставлять <meta name="robots" content="noindex"> практически нереально, более того ещё вручную и выкидвать из индекса в вебмастере.

Covax
На сайте с 09.02.2012
Offline
119
#3

Удалите фиды в коде.

S
На сайте с 11.01.2012
Offline
48
#4
Covax:
Удалите фиды в коде.

сами фиды нужны, а их индексация- нет

P
На сайте с 23.01.2008
Offline
74
#5
Sead:
...
Гугл индексирует страницы с фидами, хотя они закрыты в robots.txt
...
Кто знает, как это дело прекратить?

Никакие "ссылки" закрывать не нужно и уж тем более не стоит пихать в код XML-документа мета тег robots да еще и "вручную".

1. Фиды должны быть открыты (не запрещены в robots.txt) для сканирования

2. При обращении к ним сервер должен выдавать в ответе заголовок X-Robots-Tag (X-Robots-Tag: noindex)

Не особо понятно чем они вам там (в индексе, в соплях) помешали. Ну закрыли вы их в robots.txt и все. Новые в индекс не полезут, а старые пусть болтаются сколько гуглу угодно.

S
На сайте с 11.01.2012
Offline
48
#6
Playmаn:
Никакие "ссылки" закрывать не нужно и уж тем более не стоит пихать в код XML-документа мета тег robots да еще и "вручную".

1. Фиды должны быть открыты (не запрещены в robots.txt) для сканирования
2. При обращении к ним сервер должен выдавать в ответе заголовок X-Robots-Tag (X-Robots-Tag: noindex)

Не особо понятно чем они вам там (в индексе, в соплях) помешали. Ну закрыли вы их в robots.txt и все. Новые в индекс не полезут, а старые пусть болтаются сколько гуглу угодно.

так как сделать "2. При обращении к ним сервер должен выдавать в ответе заголовок X-Robots-Tag (X-Robots-Tag: noindex)"?

"Не особо понятно чем они вам там (в индексе, в соплях) помешали" Какую пользу для посетителя приносит ПРОИНДЕСОВАННАЯ страница с фидом?

"Ну закрыли вы их в robots.txt и все. Новые в индекс не полезут" А с чего это они вдруг не полезут, при публикации новых постов? на данный момент фиды закрыты в роботсе и успешно лезут в сопли. А всопли, очевидно потому, что за "нормальные страницы" гугл их не воспринимает, а только как за технические, которые пользователю абсолютно не нужны. Вы часто набираете в поисковике "фид про то-то"?

E
На сайте с 21.09.2009
Offline
283
#7
Sead:
A description for this result is not available because of this site's robots.txt – learn more.

Эта надпись означает только то, что урл есть в индексе, а страницы нет. Она действительно закрыта в роботс.

P
На сайте с 23.01.2008
Offline
74
#8
Sead:
так как сделать ...

Например, добавить в код скрипта что-то типа header("X-Robots-Tag: noindex");

В какой именно файл и место это вставлять спрашивайте у тех (я в их число не вхожу), кто знаком с "внутренностями" вордпресса.

Sead:
... А с чего это они вдруг не полезут, при публикации новых постов? на данный момент фиды закрыты в роботсе ...

Не знаю каким образом вы их там закрыли но строчка, запрещающая сканирование ваших фидов (исходя из этого - ******.ru/komputer/zhelezo/feed) должна выглядеть вот так:

Disallow: /*/feed$

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий