iterms

Рейтинг
10
Регистрация
10.10.2013
september:
Куски текста еще где-то гуглятся кроме вашего сайта?

Да нет нигде не гуглятся. Дублей тоже нет. Все дубли закрыты.

Чёт начинаю подозревать, что у гугла есть какая-то спец. база, куда он помещает тексты с зафильтрованных сайтов. Ну не верю я в такое, НЕ ВЕ РЮ!

Именно все 27 текстов. Именно с сайта, которого уже не существует. По домену сайт тоже недоступен.

Единственное на что я грешу, так это:

1) Гугл имеет спец базу и помещает туда тексты с зафильтрованных сайтов, НО 🙅 (новый сайт имеет теперь совсем другую структуру, другие описания, другие названия разделов, другой футер, другую шапку, другой дизайн, другие урлы)

2) Полностью идентичный тайтл и h1, хотя на многие сайтах тайтл и h1 совпадают и ничего, живут себе поживают.

Больше догадок нет.

Ripro:
Это в случае, если страницы остаются на сайте. Вы же написали - сайта уже нет.

Ок спасибо большое. Помогли.

foxi:
Бинг плевал на запрет в роботс. Он будет и дальше индексировать.

Я уже запутался кого слушать а кого нет

Получается я сделал неправильно.

Цитирую:

Чтобы удалить кэшированную копию страницы, необходимо добавить в ее код метатег noarchive или изменить ее содержание. Если копия должна быть удалена из кэша без возможности восстановления, используйте метатег noarchive. Если же материалы нужно удалить временно, измените содержание страницы. Она не будет появляться в результатах поиска до следующего сканирования и обновления ее кэшированной версии.

Maxhit:
Проще всего по-моему прописать правило индексации в robots.txt.

User-agent: bingbot
Disallow: /


Ну и еще насколько знаю существуют web инструменты для bing - http://www.bing.com/toolbox/webmaster.

А так пойдёт?

User-agent: *

Disallow: /

бинг увидит такой роботс и выплюнет страницы? Втечении какого времени?

Ripro:
Еще раз - не останется страниц в выдаче совсем, кеша не будет тоже.

Да эт то ясно. А как мне посмотреть это? В выдаче понятно. А в кэше как посмотреть страницы?

да и кстати есть ли разница указал я сайт с ввв или без (при отправке запроса на удаление)???

Ripro:
в гугл поиске:
site:mysite.ru
mysite.ru - меняем на свой домен
получите кол-во страниц
потом будет 0

Нет. Это не сохранёнка. Мне нужна именно сохранёнка, а не выдача.

Вот например http://webcache.googleusercontent.com/search?q=cache:pycMCPJWySsJ:www.youtube.com/watch%3Fv%3DAc9FKExZ0AY+&cd=5&hl=ru&ct=clnk&gl=ru

Ripro:
Ага, так Disallow: /

сорри, затюкалась чуток в слешах )

Хотя и так, и так работает, в данном случае разницы нет, как мне кажется

Спасибо. Подал запрос на удаление. Только странно почему то не могу найти сохранёнку моих страниц. Кнопка сохранённой копии отсутствует при просмотре списка проиндексированных страниц.

Как бы мне сохранёнку проверить удалится она или нет? Может какой-то адрес есть, где хранится вся сохранёнка сайта?

---------- Добавлено 21.10.2013 в 16:30 ----------

G-and-Y:
User-agent: *
Disallow: /
Вот так правильно это рас, я вместо главной еще отдавал 404 ошибку. В вебмастере подать на удаление главную и удалится весь сайт за пару часов, в яндексе чуть дольше день, два.

Подал запрос уже.

Может быть есть где-то сохранёнка? Не могу найти сохранёнку своего сайта. Кнопка исчезла.

Ripro:
Ага, так Disallow: /

сорри, затюкалась чуток в слешах )

немного дополнил пост. Для гугла может что-то отдельное есть?

Ripro:
Положить на хостинг файл robots:
User-agent: *
Disallow: *


В инструментах: Слева в меню Индекс Google -> Удалить URL-адреса. "Создать новый запрос на удаление". Вылазит поле, в него ставим просто: /
жмакаем "продолжить"
Ждем пару часов, может 4-5 - не засекала время, но в течении полсуток сайт выпадает из кеша полностью.

про роботс ничего не напутали?

может так?

User-agent: *

Disallow: /

ещё в гугле прочитал вот что:

Чтобы запретить индексирование страницы вашего сайта только роботам Google и разрешить ее индексирование другим роботам, добавьте следующий метатег:

<meta name="googlebot" content="noindex">

Короче тут роботс для гугла нужен

Всего: 64