Ошибка с robots.txt

M
На сайте с 08.10.2010
Offline
28
458

Случайно на несколько дней установил блокировку для роботов:

User-agent: *

Disallow: /

Пока заметил, прошло 2-3 дня. Конечно, robots.txt исправил, но Гугл успел упасть в 2 раза.

Если добавить страницу через инструмент просмотра Googlebot, то она сразу возвращается в органику на место, но страниц > 100.000. Так что не вариант..

По логам гугл снизил скорость прохода (было 15.000-20.000/день - стало 4.000-6.000). Более того, робот проходит ссылки, которые успели выпасть, но не спешит их возвращать в выдачу.

Уже прошло более 2 недель. Кто с таким сталкивался? Долго ли ждать возврата?

M
На сайте с 14.08.2012
Offline
27
#1

А Вы уверены что падение связано с robots.txt? Обычно google делает так

Этот сайт стоит в ТОП3 в таком виде уже несколько недель.

M
На сайте с 08.10.2010
Offline
28
#2

Думаю, что это из-за robots.txt.

У меня сейчас 90% страниц именно так и выглядят. Многих из них нет в топ100, но есть и такие, как написали Вы: в топ 10 с таким сниппетом.

M
На сайте с 14.08.2012
Offline
27
#3

А ну если так, то видимо да. Советую написать на форум вебмастеров для google, бывает что помогает.

SS
На сайте с 20.01.2013
Offline
44
#4
murava:
Если добавить страницу через инструмент просмотра Googlebot, то она сразу возвращается в органику на место, но страниц > 100.000. Так что не вариант..

Так отправьте все страницы, в чем проблема.

G
На сайте с 30.07.2013
Offline
6
#5
Seo_Sam:
Так отправьте все страницы, в чем проблема.

поддерживаю

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий