Вылетели все страницы из-за robots.txt

БИ
На сайте с 19.09.2008
Offline
71
444

Приветствую.

Делали новую версию сайта на тестовом домене, где в robots.txt запрещено индексирование всех страниц, чтобы в индекс ПС не попадали дубли.

Синхронизировали наработки с живым сервером и конечно же забыли про robots.txt

Прошло уже около 2-х недель. С яндекса с последним апом вылетели все страницы, более 400 000, а с google за это время больше половины.

Robots.txt поправили.

Такой вопрос, страницы восстановятся сразу или робот опять будет индексировать по немногу, пока не проиндексирует по новой все 400к ? Станут ли они в серпе сразу на прежние позиции? Спасибо за ответ.

грац.
На сайте с 13.08.2010
Offline
176
#1

Как вы его заставите, так и проиндексирует :)

kbv79
На сайте с 24.03.2007
Offline
167
#2

Не сразу. Минимум 2-3 апдейта. Хотя может и больше. У вас 400 тыс. страниц?! Дольше..

Позиции должны быть около того. Но учтите, естественно, немного другие - выдача меняется постоянно, вас потеснить или, наоборот, уступить место.

S_E_O Алексей - Строительные ссылки
На сайте с 22.07.2006
Offline
314
Башмаков Игорь:
страницы восстановятся сразу или робот опять будет индексировать по немногу

Будет индексировать заново.

⚡ Размещение ссылок на 50 строительных сайтах без бирж: ⚡пакет №5 ( https://searchengines.guru/ru/forum/977443 )⚡пакет №1 https://searchengines.guru/ru/forum/922181 ⚡ пакет №2 ( https://searchengines.guru/ru/forum/925481 ), и ⚡пакет №3 ( https://searchengines.guru/ru/forum/938528 ) .
БИ
На сайте с 19.09.2008
Offline
71
#4

Все понял. Спасибо всем за ответы.

Создали сами себе проблем 😒

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий