Как удалить страницу из выдачи и кеша?

S
На сайте с 15.03.2004
Offline
72
2264

О вебмастерке гугла и том что в ней можно удалить почти всё я итак знаю. Вопрос в следующем.

Купил домен переделал всё удалил старый отстствующий контент добавил новый однако остались ещё в выдаче страницы такого вида www.domain.com/?p=141 добавил правило с htaccess что бы ссылки такого рода шли в 404 а ответ сервера был ненайдено, добавил правило в robots.txt о том что бы ссылки с параметром ?p не индексировались роботами однако страницы так и висят в гугле. Подскажите пожалуйста что можно сделать что бы удалить их?

П.с. если я просто добавлю ссылку вида www.domain.com/?p=141 через вебмастерку гугла на удаление мне гугл предложит удалить весь сайт...

Have not yet
Sower
На сайте с 30.12.2009
Offline
659
#1
Scooter:
если я просто добавлю ссылку вида www.domain.com/?p=141 через вебмастерку гугла на удаление мне гугл предложит удалить весь сайт...

Он удалит только страницу с этим урлом.

Недавно хотел удалить ссылки вида www.domain.com/download.php?file=xxxxxx послал запрос на удаление www.domain.com/download.php через сутки они удалили только этот чистый урл, а все, где после имени файла идёт ?file=xxxxxx остались висеть в выдаче.

__________________Бесплатная накрутка ПФ: посещаемость, просмотры, переходы с поисковиков по ключевикам, итд.
__________________Все посетители живые, не боты. (http://livesurf.ru/promo/80271)
S
На сайте с 15.03.2004
Offline
72
#2

Ну так это собственно не решает проблемы ))) Думаю что можно всё-таки каким-то образом избавиться от этих страниц в выдаче?

Sower
На сайте с 30.12.2009
Offline
659
#3
Scooter:
Думаю что можно всё-таки каким-то образом избавиться от этих страниц в выдаче?

Как найдёте решение, чиркните здесь. Тоже актуально. База файлов на одном сайте упала, и гугл наиндексировал несколько тысяч не существующих страниц. Когда файлы были не доступны, скрипт выдавал сообщения, что они недоступны. Гугл проиндексировал все эти одинаковые сообщения как страницы.

D
На сайте с 22.02.2005
Offline
117
#4

Можно попробовать наоборот открыть индексацию в robots.txt, убрать правило в htaccess, а в самих страницах выдавать <meta name="robots" content="noindex">.

По идее через месяц такие страницы должны удалиться из индекса.

S
На сайте с 15.03.2004
Offline
72
#5
Dimonius:
Можно попробовать наоборот открыть индексацию в robots.txt, убрать правило в htaccess, а в самих страницах выдавать <meta name="robots" content="noindex">.
По идее через месяц такие страницы должны удалиться из индекса.

А если страниц уже физически не существует создавать их заново чтоли?

palladin_jedi
На сайте с 13.07.2010
Offline
71
#6
Scooter:
А если страниц уже физически не существует создавать их заново чтоли?

Создать одну и на неё редиректить

Сайт о web-разработке и прочем (http://seazo.net)||Продвижение статьями под Google (http://short.seazo.net/ght4zf) Бесплатные консультации рефералам Sape (http://www.sape.ru/r.SWfwWOblBo.php) PHP и JS скрипты на заказ, создание сайтов с нуля и на CMS.
Sower
На сайте с 30.12.2009
Offline
659
#7
palladin_jedi:
Создать одну и на неё редиректить

А если по этой ссылке идёт загрузка файла, а в индекс она влетела тогда, когда файл не доступен был?

palladin_jedi
На сайте с 13.07.2010
Offline
71
#8
Sower:
А если по этой ссылке идёт загрузка файла, а в индекс она влетела тогда, когда файл не доступен был?

Может быть сделать страницу-редиректор уведомляющую о начале загрузки и её закрыть от индексации?

iOweYouNothing
На сайте с 08.01.2011
Offline
198
#9

Scooter, тебе нужно на такой странице в http-заголовке отдавать код 404 Not Found и в хеде документа отдавать <meta name="robots" content="noindex"> (я отдаю для пущей уверенности content="noindex,nofollow" ), а в роботсе ни в коем случае не запрещать эти страницы.

Технически на ДЛЕ это решается очень просто (небольшая модификация кода), а вот в Вордпрессе и прочих двигах - просто не колупался досконально :)

ЗЫ: взято из рекомендаций ГуглоВебмастера и работает на ура.

535i добавил 30.05.2011 в 13:37

ЗЫ2: поясню логику..

если на несуществующую страницу ссылается хотя бы одна внутренняя или внешняя страница - гугл будет пытаться до усирачки индексить эту страницу (невзирая на код 404 или запрет в роботсе). поэтому, запрещать её в роботсе нельзя - так и будет в ошибках висеть. нужно её разрешить в роботсе, потом отдать на неё код 404 и метатег content="noindex" - тогда её при следующем обращении выкинет из индекса/ошибок.

если страница без метатега (или запрещена в роботсе) и при этом отдает код 404 - то бот ломится на неё, пишет её в ошибки и пытается индексить чуть ли не вечно ;)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий