Задолбался удалять из индекса гугла закрытые в robots страницы

123 4
StaroverovMax
На сайте с 31.05.2006
Offline
174
#11
Nick Sneer:
Ставим Google Webmaster Tools -> Diagnostics -> Fetch as GoogleBot
Проверяем нужный "закрытый урл". Если показывается, правим robots.txt. Если закрыт правильно, оно говорит "Denied by robots.txt"

Google Webmaster Tools - показвает, что всё закрыто, но по факту выкидывает закрытые страницы в поиск, но нужно отдать должное, сразу начинает чистку, -100-200 страниц в день.

Сила есть - ума еще больше надо.. Фитнес, бодибилдинг (http://sportmashina.com), а форум - закачаешься! (http://forum.sportmashina.com/index.php)
angr
На сайте с 11.05.2006
Offline
413
#12
StaroverovMax:
Дело доходило даже до платных закрытых архивов, которые можно было открыть бесплатно в гугле

т.е. присутствовал кеш страницы запрещенной к индексации в роботсе?

Требуется СЕО-Специалист в Кишиневе, в офис. ()
L
На сайте с 07.12.2007
Offline
351
#13

terrell, вот свежие рекоммендации самого Google. Обратите внимание на

указание определённой страницы в файле robots.txt предотвратит её сканирование нашей системой, но при наличии на неё ссылок с других страниц (на вашем или других сайтах) мы всё равно можем проиндексировать её

Если не подействует - остаётся крайняя мера: напишите на этих страницах свои личные данные и отправляйте телегу в Гугл.

angr
На сайте с 11.05.2006
Offline
413
#14
Ladycharm:
напишите на этих страницах свои личные данные и отправляйте телегу в Гугл.

обязательно в полном объеме (в том числе логины/пароли ко всем аккаунтам) и с сканом паспорта

StaroverovMax
На сайте с 31.05.2006
Offline
174
#15
angr:
т.е. присутствовал кеш страницы запрещенной к индексации в роботсе?

Сейчас, пока, этой проблемы нет, посмотреть не могу, но на сколько помню кэша не было.

StaroverovMax добавил 03-08-2011 в 15:27

Ladycharm:
Если не подействует - остаётся крайняя мера: напишите на этих страницах свои личные данные и отправляйте телегу в Гугл.

Дык, ведь гугл признает, что может проиндексировать страницы при наличии ссылки на ресурс, так и отправят на перечитку своих рекомендаций, в лучшем случае.

angr
На сайте с 11.05.2006
Offline
413
#16
StaroverovMax:
Дело доходило даже до платных закрытых архивов, которые можно было открыть бесплатно в гугле

или я чего-то не понимаю, или вы что-то путаете...

как закрытые архивы можно было открыть через гугл? вы сообщали логин/пароль роботу гугла?

StaroverovMax
На сайте с 31.05.2006
Offline
174
#17
angr:
вы сообщали логин/пароль роботу гугла?

На форуме не раз обсуждали хождение гуглабота в админских частях.

Что по поводу корейцев, которые нагрянули и распотрошили серваки гугля в Корее, ломившиеся от логинов и паролей)))?

В моём случае пароль это динамический код, который передавался через смс.

angr
На сайте с 11.05.2006
Offline
413
#18

StaroverovMax, ладно, не буду спорить... но скорей всего проблема была не в роботе...

StaroverovMax
На сайте с 31.05.2006
Offline
174
#19

Зачем спорить, я понял о чем говорите вы, вы поняли меня.

Настроить роботс не представляет труда, но заставить гугл работать по вашим правилам, не так уж легко.

Я грешил на бар, но это безосновательно..

указание определённой страницы в файле robots.txt предотвратит её сканирование нашей системой, но при наличии на неё ссылок с других страниц (на вашем или других сайтах) мы всё равно можем проиндексировать её
Z
На сайте с 01.06.2008
Offline
182
#20

ИМХО Гугл делает себе фронт работы, прямо как в Простоквашино: "Чтобы что-то продать, нужно сначала, что-то ненужно купить", тут смысл тот же :D

123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий