GOOGLe и Robots.txt

12
Y
На сайте с 25.10.2007
Offline
198
1183

Добрый день уважаемые форумчане, подскажите, а вообще гугл смотрит на файл robots.txt или он ему по барабану, дело в том, что было нужно исключить дубли страниц, всё ненужное заклюил в роботсе, яндекс все прочел и исключил нежелательные страницы, а вот GooGle игнорировал роботс и прохавал все чего не надо было хавать..

Pokler1111
На сайте с 14.01.2011
Offline
90
#1

такая же ситуация) гугл жрет все, что видит) ппц)

N
На сайте с 16.02.2008
Offline
165
#2

А сколько времени прошло с момента изменения роботс?

Поддержка партнеров 24/7 в группе https://t.me/alphaaffiliates (https://t.me/alphaaffiliates)
mynewgaleon
На сайте с 21.02.2009
Offline
118
#3

google жрет все подряд, но через несколько дней все закрытое в роботс остается в омитед серч резалтс. Ждите

Forza!
На сайте с 22.09.2008
Offline
107
#4

Команда disallow: запрещает обращение робота к странице, но не исключает ее из индекса, если она там была.

Пользуйтесь <meta name="robots"> для удадения из индекса. Еще, как вариант, команда noindex: в robots.txt, признается только Google.

Y
На сайте с 25.10.2007
Offline
198
#5
Forza!:
Команда disallow: запрещает обращение робота к странице, но не исключает ее из индекса, если она там была.

так в том то и дело, что с начала был созда роботс, а потом сайт начал заполняться информацией...

Forza!:
Пользуйтесь <meta name="robots"> для удадения из индекса. Еще, как вариант, команда noindex: в robots.txt, признается только Google.

Можно мануал какой нить???

S
На сайте с 28.10.2005
Offline
319
#6
Forza!:
Команда disallow: запрещает обращение робота к странице, но не исключает ее из индекса, если она там была

Сдрасте, приехали

_Tonik_
На сайте с 30.01.2009
Offline
51
#7

И вам добрый вечер :)

Согласен с вами, неоднократно видел такого рода "глюки", когда Google начинал индексировать страницы, находящиеся в robots.txt. Но спешу вас уверить такое случается крайне редко.

Как дополнительный вариант можете использовать параметр rel="canonical" для борьбы с дублями. Не знаю поможет ли это в вашей ситуации, но тем не менее...

Спасибо за внимание.

||| Уже не предоставляю бесплатные (/ru/forum/508357) и платные (/ru/forum/396481) аудиты ||| >>> VK: Itaniell (vk.com/itaniell) | SkypeID: Itaniell
Z-Style
На сайте с 18.03.2010
Offline
185
#8
Forza!:
Команда disallow: запрещает обращение робота к странице, но не исключает ее из индекса, если она там была.

Исключает.

B
На сайте с 07.02.2005
Offline
161
#9
yaltabes:
яндекс все прочел и исключил нежелательные страницы, а вот GooGle игнорировал робот

Не допускаете, что robots написан неправильно? Покажите.

kievrent
На сайте с 27.12.2009
Offline
206
#10
yaltabes:
а вот GooGle игнорировал роботс и прохавал все чего не надо было хавать..

надо радоваться, что Гугл по ftp пока не индексирует :)

Тож сталкивался с ситуацией, когда в индекс попадал неготовый сайт. Если такое происходит - то про "бонус новичкам" можно забыть...

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий