Как удалить /каталог/ из выдачи Я

12
SeOToM
На сайте с 14.11.2009
Offline
126
1239

В гугле можно удалить не только урл, но и целый каталог. А вот как это сделать в яндексе?

TheStig
На сайте с 13.02.2010
Offline
98
#1

robots.txt отменили ?

User-agent: Yandex
Disallow: /katalog/
SeOToM
На сайте с 14.11.2009
Offline
126
#2

TheStig, в роботсе уже давно прописано, но через него долго, очень долго.

ProTeg
На сайте с 09.06.2008
Offline
226
#3
SeOToM:
TheStig, в роботсе уже давно прописано, но через него долго, очень долго.

ХАХАХА... А вы предложите более быстрый способ))) Роботс - это самый быстрый способ, ну а если вы не хотите, чтобы просматривали эти странички, то пишите перманентный редирект или просто редирект.

---------- Post added 29-07-2012 at 09:58 ----------

SeOToM:
TheStig, в роботсе уже давно прописано, но через него долго, очень долго.

1 АП хватит.. Если вы долго ждёте, значит что-то ни то прописали... В помощь Там же и анализатор для проверки правильности прилагается..

SeOToM
На сайте с 14.11.2009
Offline
126
#4
ProTeg:
ХАХАХА... А вы предложите более быстрый способ))) Роботс - это самый быстрый способ, ну а если вы не хотите, чтобы просматривали эти странички, то пишите перманентный редирект или просто редирект.

---------- Post added 29-07-2012 at 09:58 ----------



1 АП хватит.. Если вы долго ждёте, значит что-то ни то прописали... В помощь Там же и анализатор для проверки правильности прилагается..

Вот самый быстрый способ http://webmaster.yandex.ru/delurl.xml но я не хочу вбивать более 300 страниц вручную. В гугле этот же сервис сделан гораздо функциональнее, там можно выбрать "удалить каталог". В Яндексе же такого нет. А мне как раз бы 3-4 каталога надо удалить.

Я не долго жду, прошел всего один ап, после которого появились дубли, но по опыту знаю, что запрещенные в роботсе страницы могут вылетать месяцами.

bon_eur
На сайте с 09.06.2012
Offline
40
#5
SeOToM:
Вот самый быстрый способ http://webmaster.yandex.ru/delurl.xml но я не хочу вбивать более 300 страниц вручную.

А в чем тогда проблема?

1. Капчи нет.

2. Метод GET.

Что стоит составить в экселе 300 строчек типа http://webmaster.yandex.ru/delurl.xml?url=http%3A%2F%2Fwww.ya.ru%2F&do=remove и отправить запросы?

SeOToM
На сайте с 14.11.2009
Offline
126
#6

bon_eur, я этого не умею(

ProTeg
На сайте с 09.06.2008
Offline
226
#7
SeOToM:
Вот самый быстрый способ http://webmaster.yandex.ru/delurl.xml но я не хочу вбивать более 300 страниц вручную. В гугле этот же сервис сделан гораздо функциональнее, там можно выбрать "удалить каталог". В Яндексе же такого нет. А мне как раз бы 3-4 каталога надо удалить.

Я не долго жду, прошел всего один ап, после которого появились дубли, но по опыту знаю, что запрещенные в роботсе страницы могут вылетать месяцами.

Ну ни чем не быстрее))) Там тот же самый принцип - обход робота, как и в случае с роботс.тхт... У меня всегда всё нормально с роботсом было. как правило одного апа хватало, ну максимум 2.

bon_eur
На сайте с 09.06.2012
Offline
40
#8
SeOToM:
bon_eur, я этого не умею(

1. Берете список урл на удаление, по запросу site:site.ru/catalog/.

2. Составляете в экселе строчки запросов на удаление.

3. Если не умеете скриптом, то просто 300 раз кликаете - это не долго.

SeOToM
На сайте с 14.11.2009
Offline
126
#9

ProTeg, хорошо, я попробую, спасибо!

bon_eur, спасибо за помощь. А как сделать урл на удаление? Подставить один в поле, нажать на удалить, после этого скопировать урл адрес и подставлять в определенное место свои урлы, так? Как взять список урлов из site:site.ru/catalog/ ? Если руками, то нет смысла, а спарсить я не смогу...

bon_eur
На сайте с 09.06.2012
Offline
40
#10
SeOToM:
А как сделать урл на удаление?

В экселе есть функция СЦЕПИТЬ(), образец запроса к вебмастеру приводил выше.

SeOToM:
Как взять список урлов из site:site.ru/catalog/ ?

Способов много. Например, плагин SEOquake к FF позволяет брать по 50 урлов из выдачи яндекса и сохранять в формат .csv, который открывается экселем.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий