Почему гугл держит страницы в индексе которые отдают 404 или запрещены в robots.txt

12
onikys
На сайте с 04.07.2010
Offline
58
1624

Почему гугл держит страницы в индексе которые отдают 404 или запрещены в robots.txt

http://awesomescreenshot.com/095kcuc52

Эти страницы уже больше трех месяцев висят непонятно почему. Такое впечатление что ему плевать на robots.txt.

Подскажите, может я чего то не знаю?)

X
На сайте с 12.07.2012
Offline
70
#1
onikys:
Почему гугл держит страницы в индексе которые отдают 404 или запрещены в robots.txt

http://awesomescreenshot.com/095kcuc52

Эти страницы уже больше трех месяцев висят непонятно почему. Такое впечатление что ему плевать на robots.txt.

Подскажите, может я чего то не знаю?)

ага, у меня такое было...роботс запрещает поэтому и висят (тут на форуме так сказали)

открыл в роботс и сделал редирект 301 на морду

E
На сайте с 21.09.2009
Offline
283
#2

onikys, гугл действительно может игнорировать роботс нужно удалить из роботс и поставить на страницу ноиндекс робот зайлет прочитает и удалит. Потом закроете в роботс.

onikys
На сайте с 04.07.2010
Offline
58
#3

так стоит "<meta name="googlebot" content="noindex">"

например из скрина url http://iphonchik.com.ua/obzor.html?limit=100

И долго уже стоит

E
На сайте с 21.09.2009
Offline
283
#4

onikys, Вам xarraw написал тогда почему не уходит. Вы запретили боту на страницу заходить как он про запрет индексации узнает?

onikys
На сайте с 04.07.2010
Offline
58
#5
easywind:
onikys, Вам xarraw написал тогда почему не уходит. Вы запретили боту на страницу заходить как он про запрет индексации узнает?

понял! Ок попробую!)

Julia Web
На сайте с 13.02.2012
Offline
46
#6

я 2 месяца назад вручную вычистила 125 404 страниц через форму. до сих пор выдает их в "соплях".

а на клиентском сайте проиндексировал все содержимое директории, закрытой через роботс.ткст

Блог о продвижении сайтов в буржунете (http://seowest.org) делюсь опытом по google.com, google.co.uk, google.us, google.es
E
На сайте с 21.09.2009
Offline
283
#7
Julia Web:
а на клиентском сайте проиндексировал все содержимое директории, закрытой через роботс.ткст __________________

в директоии только файлы страниц нет?

Julia Web
На сайте с 13.02.2012
Offline
46
#8
easywind:
в директоии только файлы страниц нет?

там еще изощренней наворотили -полную версию сайта зачем-то скопировали

E
На сайте с 21.09.2009
Offline
283
#9

Julia Web, гугл скопировал?:) если папка в выдаче не нужно то наверно "удаление урл" нужно использовать.

Julia Web
На сайте с 13.02.2012
Offline
46
#10
easywind:
Julia Web, гугл скопировал?:) если папка в выдаче не нужно то наверно "удаление урл" нужно использовать.

нет,разработчики продублировали со страницы галереи меню со ссылками на вторую копию.

в роботс закрыли,но в индексе все равно были все эти дубли.

роботсбыл составлен нормально,через blocked urls в WMT страница была закрыта, а через site: доступна в индексе и кэше. cейчас после 301 и физического удаления папки с хостинга из индекса все дубли пропали.

это к вопросу об игнорировании гуглем robots.txt

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий