Подскажите, как удалить некоторые страницы из Гугла?

hustle
На сайте с 27.08.2007
Offline
106
914

забыл прикрыть ненужные Гугла страницы (20-30к), он их съел, сейчас они в индексе находятся. как их удалить из Гугла окончательно?

я удалил все ссылки внутренние, которые вели на эти страницы, добавил правило в роботс.тхт, добавил метатэг, но толку нет.

удалил сами ненужные страницы.

насколько я понял:

Директива Disallow в роботс.тхт вроде как говорит боту индексировать страницы, но если они уже в индексе? т.е. он просто перестает них не заходит, но в базе держит.

если добавить метатэг noindex - то боту же надо зайти на страницу, чтобы ее сожрать. поэтому смысла нет.

ссылки удалил внутренние на страницы - но сами-то страницы уже в индексе.

удалять через панель вебмастера гугла - такое кол-во фиг удалишь, плюс не получается удалить как каталог, у страниц урлы кривые, без слэша, а гугл обязательно его добавляет.

подскажите, что делать? вернуть ссылки на эти страницы, чтобы робот по ним прошелся и выкинул из индекса? или есть другой какой-то путь.

Добавь свою компанию (http://gmstar.ru) на GMSTAR.RU - Товары, услуги, компании, отзывы по всем сферам деятельности. Бесплатные инструменты для продвижения компании.
Trean
На сайте с 28.10.2009
Offline
78
#1

Другого пути нет. Только удалять в ВМТ или ждать.

Повесьте 404, через время выкинет.

Беру заказы на продвижение, также предлагаю качественные консультации и аудиты сайтов (обращаться в ЛС).
Digital Helen
На сайте с 10.11.2006
Offline
108
#2
Trean:
Повесьте 404, через время выкинет.

+ 1

При 404 страницы удаляются из индекса намного быстрее, чем просто при наличии disallow в роботсе или noindex в хедере.

I
На сайте с 14.09.2009
Offline
29
#3

Варианты:

1) закрыть в robots.txt, запросить удаление в WMT;

2) не закрывать в robots.txt, на страницах прописать noindex;

3) если страницы не нужны, удалить их, не закрывать в robots.txt и возвращать 404, а ещё лучше 410 для ускорения процесса. Вариант не исключает параллельного запроса на удаление в WMT.

Для вариантов 2 и 3 ссылки, судя по моему опыту, не обязательны, хотя, по идее, можно ускорить процесс, организовав временные ссылки на удаляемые страницы.

Digital Helen:
При 404 страницы удаляются из индекса намного быстрее, чем просто при наличии disallow в роботсе или noindex в хедере.

Насчёт noindex — не факт, но 410 срабатывает ещё быстрее, чем 404.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий