Удаление страниц из индекса

_S
На сайте с 11.01.2006
Offline
150
850

Коллеги, прошу помощи.

Для клиента программист сделал тестовый сайт на поддомене test.site.ru и через какое то время test попал в индекс.

Удалил все страницы включая index.php, прописал в robots

User Agent: Yandex
Disallow: /

User Agent: *
Disallow: /

Но яндекс до сих пор видит сайт - прошло около месяца. Что делать?

Вторая часть вопроса

На основном сайте страниц, которых больше не существует выводится текст "страницы больше нет" и отдаёт код 404. Но данные страницы находятся в индексе и не выпадают уже около 3-х месяцев. Что сделать чтобы яндекс забыл о ненужных страницах?

Спасибо

Revolve - создание сайтов (http://www.revolving.ru/) icq 55-61-51
K
На сайте с 21.11.2007
Offline
80
kRt
#1
__SPiRiT__:
Коллеги, прошу помощи.
Для клиента программист сделал тестовый сайт на поддомене test.site.ru и через какое то время test попал в индекс.

Удалил все страницы включая index.php, прописал в robots


Но яндекс до сих пор видит сайт - прошло около месяца. Что делать?

Вторая часть вопроса
На основном сайте страниц, которых больше не существует выводится текст "страницы больше нет" и отдаёт код 404. Но данные страницы находятся в индексе и не выпадают уже около 3-х месяцев. Что сделать чтобы яндекс забыл о ненужных страницах?

Спасибо

У вас сервер точно 404 отдает? Я именно спрашиваю про ответ сервера, а не про то, какая страница открывается по ссылке.

_S
На сайте с 11.01.2006
Offline
150
#2
kRt:
У вас сервер точно 404 отдает? Я именно спрашиваю про ответ сервера, а не про то, какая страница открывается по ссылке.

Точно

vovach
На сайте с 29.11.2008
Offline
76
#3
Жуйте орбит без сахара! Он избавит вас от перхоти и сделает ваш ваучер золотым!
_S
На сайте с 11.01.2006
Offline
150
#4

около 1000 страниц... с капчей это жесть.

А что по поводу поддомена? Достаточно ли было всё снести и выставить в роботс disallow?

vovach
На сайте с 29.11.2008
Offline
76
#5
__SPiRiT__:
около 1000 страниц... с капчей это жесть.


А что по поводу поддомена? Достаточно ли было всё снести и выставить в роботс disallow?

Если войти в аккаунт яндекса, то капчи нет. Но 1000 страниц все равно жесть, да)

Так то достаточно должно быть, но смотрите, возможно на поддомен ссылки есть внешние или с самого домена, тогда никакой disallow и delurl не поможет, у меня была такая история. Только ссылки убирать тогда. Больше не знаю что посоветовать.

Xplod
На сайте с 17.01.2008
Offline
116
#6

Обрати внимание на директиву - User Agent, это неправильно, правильно - User-agent, причина в этом.

http://help.yandex.ru/webmaster/controlling-robot/robots-txt.xml

_S
На сайте с 11.01.2006
Offline
150
#7

Спасибо. Справился с убийством страниц вручную - их оказалось всего 170 штук.

Спасибо за "User-Agent".

happigator
На сайте с 09.04.2013
Offline
10
#8
__SPiRiT__:
Справился с убийством страниц вручную - их оказалось всего 170 штук.

да вы молодец, помучались однако))

а про User-agent тоже запомню, мало ли пригодится!

vpner.net - защита данных, анонимность, безграничный интернет (https://cp.vpner.net/aff.php?aff=001)

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий