Гугл не очень на роботс смотрит :)

12
ValetRammstein
На сайте с 20.04.2007
Offline
15
986

Заметил такое: если закрыть n страниц в роботсе, то яндекс на 2-3 апдейт уже их выкинет, а Гугл держит их очень долго (пару месяцев).

Кто наблюдал подобное и может кто знает как их быстрей выкинуть с гугл.

Если удалить через интсрументы гугл - аналогично - выкидывать не спешит.

П.С. Заметил, что при добавлении некоторых страниц (причем в тему), получил понижение на пару позиций в серпе во всех ПС. Закрыл их роботсом - яндекс на 2-ой ап выкинул их и позиции вернулись. А гугл их дальше держит.

Kislov
На сайте с 29.04.2006
Offline
185
#1

Аналогично. Google не хочет удалять из поиска закрытые от индексации страницы.

Lor
На сайте с 28.05.2004
Offline
352
Lor
#2
ValetRammstein:
Если удалить через интсрументы гугл - аналогично - выкидывать не спешит.

Не знаю, у меня удалил в течение нескольких суток.

Йопез - форум без модераторов. https://yopez.com
ValetRammstein
На сайте с 20.04.2007
Offline
15
#3
Lor:
Не знаю, у меня удалил в течение нескольких суток.

Так там вроде что то такое пишется типа будет удален через полгода.

Самое смешное. что так и есть :)

I
На сайте с 02.12.2005
Offline
99
#4

вопосльзуйтесь тегом nofollow

Динамика изменения курса евро и бакса (http://valuta.itemp.ru/)
ValetRammstein
На сайте с 20.04.2007
Offline
15
#5
iDrum:
вопосльзуйтесь тегом nofollow

Я так понимаю обнести всю страницу.

Но тогда есть может быть дурное но все же мнение: не подумает ли Гугл, что это какой-то спам - почему пользователь должен видеть страницу, но индексировать ее нельзя.

А может этот тэг и был придуман для того, чтоб вебмастер сам указывал слабые места :)

S1
На сайте с 09.12.2003
Offline
70
#6
ValetRammstein:
Я так понимаю обнести всю страницу.
Но тогда есть может быть дурное но все же мнение: не подумает ли Гугл, что это какой-то спам - почему пользователь должен видеть страницу, но индексировать ее нельзя.
А может этот тэг и был придуман для того, чтоб вебмастер сам указывал слабые места :)

не должно быть такого. в последних рекомендациях webmasters guide таким образом советует закрывать страницы которые содержат дубликат, значит не должен он так думать

NA
AboutSEO
На сайте с 18.01.2007
Offline
154
#7

http://services.google.com:8882/urlconsole/controller

удалит все в течении 2-5 дней

john2007
На сайте с 26.03.2007
Offline
173
#8
ValetRammstein:
Я так понимаю обнести всю страницу.
Но тогда есть может быть дурное но все же мнение: не подумает ли Гугл, что это какой-то спам - почему пользователь должен видеть страницу, но индексировать ее нельзя.
А может этот тэг и был придуман для того, чтоб вебмастер сам указывал слабые места :)

Во-первых robots.txt для этого и придуман, что бы пользователи видели страницы, а индексировать их было нельзя.

А во-вторых nofollow не для запрета индексации или перехода по ссылке, он для запрета передачи стат веса (PR)

Совершая ошибки, мы не только учимся их не повторять, но и учимся прощать такие же ошибки другим... (с)
john2007
На сайте с 26.03.2007
Offline
173
#9
iDrum:
вопосльзуйтесь тегом nofollow

И кстати это не тег, а в обоих случаях значение атрибута :)

Возможно Вы с noindex попутали.

Вот инструкции об ускорении удаления из индекса.

http://www.google.ru/support/webmasters/bin/answer.py?answer=61062

ValetRammstein:
Так там вроде что то такое пишется типа будет удален через полгода.
Самое смешное. что так и есть :)

Читайте внимательно пол года - это про другое.

П
На сайте с 19.04.2005
Offline
104
#10
john2007:

И кстати это не тег, а в обоих случаях значение атрибута :)
Возможно Вы с noindex попутали.

возможно имеелось ввиду мета-тег


<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
Вечные ссылки в рассрочку, отобраны только качественные доноры Регистрация по приглашению -> http://gogettop.ru/?ref=18973 (http://gogettop.ru/?ref=18973)
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий