Индексация и удаление URL

ps10n1ck
На сайте с 08.01.2009
Offline
31
1922

Более чем две недели назад запретил к индексации свой сайт (в роботс указал disallow всему сайту) дабы выпали с индекса страницы сайта (была полная смена структуры сайта) и воспользовался сервисом "Удалить URL". После того как стал закидывать страницы в "Удалить URL" - в я.вебмастер страниц в поиске становилось еще больше =). Дождался апа - показало, что выпало часть страниц с индекса. Через день проверил - они опять отображаются в индексе. Делаю запрос - выводит страницу с моего сайта - отправляю ее в "Удалить URL" - в ответ пишет что-то типа "указанный урл не проиндексирован". Кто-то сталкивался с подобной фигней?

S
На сайте с 11.01.2012
Offline
48
#1
ps10n1ck:
Более чем две недели назад запретил к индексации свой сайт (в роботс указал disallow всему сайту) дабы выпали с индекса страницы сайта (была полная смена структуры сайта) и воспользовался сервисом "Удалить URL". После того как стал закидывать страницы в "Удалить URL" - в я.вебмастер страниц в поиске становилось еще больше =). Дождался апа - показало, что выпало часть страниц с индекса. Через день проверил - они опять отображаются в индексе. Делаю запрос - выводит страницу с моего сайта - отправляю ее в "Удалить URL" - в ответ пишет что-то типа "указанный урл не проиндексирован". Кто-то сталкивался с подобной фигней?

История один в один. И структуру изменял, и в robots.txt всё лишнее закрыл, сделал "Удалить URL" - по фигу. Более того, страницы (закрытые и удалённые) одновременно стали появляться в основном и дополнительном индексе.

раньше в индекс страницы попадали в течние 10 минут - сейчас несколько суток. Хотя по логам видно, что бот гугла шарахается на сайте. Яндекс, где-то за недели 2-3, все старые страницы выкинул из индекса.

Попытки создать свой сайт (http://delajblog.ru/)
F
На сайте с 16.01.2010
Offline
267
#2

Хых, наивные чукотские парни. Вы что, думали, что Яндекс вам все за один клик сделает? :)

(в роботс указал disallow всему сайту)

А вы хоть моск включили перед тем, как это правило добавить? Вы запретили доступ к сайту роботам поисковых систем, но это вовсе не означает, что они вот раз и забыли про то, что в них попало ранее и каждый раз ударяясь о барьер он не будет знать, что у вас на сайте что-то поменялось, а уж тем более, что нужно что-то удалять. И так будет продолжаться не один месяц до полного выпадения из индекса.

Правило disallow НЕ говорит о том, что нужно что-то удалять.

А в свою очередь "Удалить URL" не дает моментального удаления. Это только добавляет задание Яндексу в ближайшие апы удалить вашу ссылку.

Чтобы максимально быстро добиться выпадения сайта из индекса нужно, чтобы по любому открываемому урлу сайта, роботы поисковый систем получали корректную ошибку 404 и никаких disallow.

ps10n1ck
На сайте с 08.01.2009
Offline
31
#3
futuristian:
Хых, наивные чукотские парни. Вы что, думали, что Яндекс вам все за один клик сделает? :)

Нет, за пол клика...

futuristian:
А вы хоть моск включили перед тем, как это правило добавить?

Конечно же нет, а что нужно?....

futuristian:
Правило disallow НЕ говорит о том, что нужно что-то удалять.

Капитан очевидность как всегда прав!

А теперь по существу:

выдержка из Я по поводу формы "Удалить URL"

Адреса страниц, полученные Яндексом из этой формы, будут проверены и, если к ним действительно нет доступа, они будут удалены из базы и исчезнут из результатов поиска по мере обхода роботом.

выдержка из Я по поводу доступа к страницам

Для удаления необходимо, чтобы при запросе указанного URL сервер возвращал код ошибки 404 или индексирование страницы было запрещено в файле robots.txt, либо метатегом noindex.

О том как работает удаление УРЛ:

кормим Я ссылками из формы удаления урл, по мере обхода бот удаляет (или помечает недействительными - точно не знаю) эти ссылки из своей БД индексированных страниц но не выкидывает из выдачи и их видно в панели Я.вебмастер по запросу до следующего апа, поэтому повторное добавление ссылки в форму на удаление урл может выдать ошибку о том, что эта урл не индексирована. Когда происходит АП - удаляются ссылки на ваши страницы и из панели вебмастера и из выдачи (удаляется не обязательно все 100% за первый ап, у меня из запрошенных ~1400-1500 выпало ~1000-1200). Сперва они выпали но потом появились из-за того, что я стал проверять как раз во время АПА, но спустя часов 10 они все-таки пропали.

MP-SEO
На сайте с 24.06.2008
Offline
128
#4
futuristian:


А вы хоть моск включили перед тем, как это правило добавить? Вы запретили доступ к сайту роботам поисковых систем, но это вовсе не означает, что они вот раз и забыли про то, что в них попало ранее и каждый раз ударяясь о барьер он не будет знать, что у вас на сайте что-то поменялось, а уж тем более, что нужно что-то удалять. И так будет продолжаться не один месяц до полного выпадения из индекса.

Правило disallow НЕ говорит о том, что нужно что-то удалять.

А в свою очередь "Удалить URL" не дает моментального удаления. Это только добавляет задание Яндексу в ближайшие апы удалить вашу ссылку.

Ну вообще-то "Удалить URL" не добавляет в базу адрес цитирую:

Нет оснований для удаления. Сервер не возвращает код 404, индексирование не запрещено ни в robots.txt, ни метатегом noindex.

Поэтому

User-agent: Yandex
Disallow: /

является одним из 3 вариантов.

Именно я так делал, когда надо было удалить пару сотен страниц. В течении 2 апов всё было успешно удалено из индекса.

Cuck
На сайте с 02.06.2011
Offline
110
#5
MP-SEO:
Именно я так делал, когда надо было удалить пару сотен страниц. В течении 2 апов всё было успешно удалено из индекса.

Я когда то удалял с помощью disallow, наигрался и намучался.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий