Как выкинуть ненужные страницы из Яндекса?

[Удален]
680

Добрый день, не могу сделать ни как. Что бы страницы из поиска яндекса выкинулись.

Уже недели 3 не убирает их из поиска.

Кто что посоветует?

реально уже только на форум надежда,зарегился читал читал, но все таки решил создать тему. (не кидайте камнями)

igrinov
На сайте с 09.01.2009
Offline
134
#1

pikvik, вы их в роботс запретили?

Персональный VPN/Socks сервер (https://cp.inferno.name/aff.php?aff=2419)
Crazy & Co.
На сайте с 25.01.2007
Offline
221
#2

Добавить запрет в robots.txt и удалить здесь.

[Удален]
#3

файл роботс уже очень далеко, а со страниц уже 301 редирект стоит.

робот тупо уже не доходит до тех страниц.:(

K
На сайте с 18.11.2008
Offline
84
#4

порекомендовал бы давать ответ 404.

Есть пара сайтов, на которых с рождения есть роботс. Прописан хост с ввв. Индексирует, как хочет - и с ввв, и без, и все вместе. Создается впечатление, что он как бы болт положил на роботсы, следуя исключительно своим несколько искаженным понятиям.

[Удален]
#5

Еще есть варианты? умные люди подскажите)

Y
На сайте с 26.04.2012
Offline
77
#6
Crazy & Co.:
Добавить запрет в robots.txt и удалить здесь.

а это чем не ответ?

Не беру и не ищу проекты.
[Удален]
#7
ycthrice:
а это чем не ответ?

со страниц уже стоит 301 редирект. А до файла роботс - уже ни когда робот не дойдет.

---------- Добавлено 26.04.2012 в 15:39 ----------

просто надо убрать редирект 301.. и все править? других путей нету?

Y
На сайте с 26.04.2012
Offline
77
#8
pikvik:
со страниц уже стоит 301 редирект. А до файла роботс - уже ни когда робот не дойдет.

---------- Добавлено 26.04.2012 в 15:39 ----------

просто надо убрать редирект 301.. и все править? других путей нету?

в любом случае при кравлинге, бот учитывает данные роботс, но в данном конкретном случае это необходимо для того, чтобы воспользоваться инструментом удаления адресов, запиливаете ненужные адреса по вышеприведенной ссылке и ждете пару апов

при использовании robots.txt+ 301 или 404, рано или поздно эти страницы вывалятся из индекса, но печаль в том, что скорее поздно нежели рано

[Удален]
#9
ycthrice:
в любом случае при кравлинге, бот учитывает данные роботс, но в данном конкретном случае это необходимо для того, чтобы воспользоваться инструментом удаления адресов, запиливаете ненужные адреса по вышеприведенной ссылке и ждете пару апов

при использовании robots.txt+ 301 или 404, рано или поздно эти страницы вывалятся из индекса, но печаль в том, что скорее поздно нежели рано

спасибо, скорее всего будем добираться до роботс итам все править. Просто 130ссылок ненужных надо из индекса убрать

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий