Убрать страницы из Гугл-кеша. Как?

12
SpikePro
На сайте с 16.10.2009
Offline
185
1458

Сабж.

Как это сделать, кроме как ждать? (зная гугл, можно прождать долго )) ).

Заранее всем спасибо.

Распродажа старых доменов от 1$! кликай -> (/ru/forum/855733) [обновлено сегодня! 26.09.2014]
K
На сайте с 18.11.2010
Offline
0
#1

Должен признать что Гугл дает неплохие ответы на этот вопрос :)

S
На сайте с 28.10.2005
Offline
319
#2

В роботсе закрыть и в вебмастере потыкать удаление

Tesmos
На сайте с 26.04.2008
Offline
72
#3
Killswitch:
Должен признать что Гугл дает неплохие ответы на этот вопрос

И какие же?

Contentum
На сайте с 03.10.2009
Offline
52
#4
semenov:
В роботсе закрыть и в вебмастере потыкать удаление

а если просто в роботс без wmt? то как долго будет по времени удаляться?

Google USA.
Miha1Low
На сайте с 19.06.2010
Offline
183
#5
Contentum:
а если просто в роботс без wmt? то как долго будет по времени удаляться?

Если учесть что закрытое изначально в роборс легко попадает в индекс, то скорее всего очень долго. Лично я удалял через панель, довольно эффективно. Хотя некоторые страницы в кеше упорно появлялись снова, причем со старым контентом.

Мужик сказал и мужик сделал - это два разных мужика.
Z0
На сайте с 15.10.2007
Offline
89
#6

Ещё можно добавить на страницу

<meta name="robots" content="noarchive">

http://noarchive.net/meta/

CashPlanet - монетизация гемблингового трафика (http://cashplanet.org/)
R
На сайте с 22.06.2007
Offline
174
#7

Проверенный и рабочий метод, который недавно использовал.

Надо сделать 3 вещи:

1. закрыть в robots.txt

2. сделать на них 404

3. удалить через панель вебмастера.

Гарантировано удаляются от 1 до 3 суток. Я проверял.

B
На сайте с 28.10.2008
Offline
39
#8
SpikePro:
Сабж.
Как это сделать, кроме как ждать? (зная гугл, можно прождать долго )) ).
Заранее всем спасибо.

Если страниц мало, то быстрее всего с помощью webmasters tools. Эта опция в разделе Crawler access

Blogocash.ru
На сайте с 25.11.2010
Offline
69
#9

если страниц много, и все они имеют определенную структуру (например domain.com/content/)

то можно в течение суток удалить хоть 100.000 страниц из индекса гугла. Достаточно, как писали выше, добавить в роботс.тхт записать не индексировать, и в вебмастер тулз удалить линки (вебмастер тулз кстати автоматически проверяет, что бы в роботс.тхт была строчка о НЕиндексации).

Если у страниц нет определенной структуры - то зависит опять же от количества. Проще только в роботс.тхт прописать, т.к. каждую страницу запрашивать на удаление запарно.

Двигаемся в ТОП с Blogocash.ru (http://www.blogocash.ru). Заработай на своих сайтах (http://www.blogocash.ru) больше!
SpikePro
На сайте с 16.10.2009
Offline
185
#10

Всем спасибо за советы.

Blogocash.ru:
Достаточно, как писали выше, добавить в роботс.тхт записать не индексировать, и в вебмастер тулз удалить линки

Если не затруднит, скиньте, пожалуйста роботс, в котором запрещена индексация всего что бы то ни было (чтобы наверняка) :)

email: SpikeDomains "собачка" gmail.com

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий