Как в Яндексе закрыть через робот часть сайта?

victor222
На сайте с 29.10.2009
Offline
198
799

Добрый день!

Снова у меня проблема с дублями! Но я сейчас все изучил и нашел структура генерации! Хочу закрыть роботам и не париться!

Вот только как прописать?

Нужно что бы http://сайт.com/любая фраза/view.download/любая фраза.html

view.download - вот этот каталог нужно закрыть

Disallow: /view.download/ - Так разве поможет?

basilic
На сайте с 16.05.2008
Offline
369
#1

Disallow: */view.download/

Или /*/view.download/

DyaDya
На сайте с 11.04.2007
Offline
147
#2

закройте и проверьте здесь.

Выбирайте качественный хостинг (http://vashmaster.ru/informaciya/o_poleznyh_programmah/news83.php) и продвигайте сайты в СЕОПУЛЬТ (http://seopult.ru/ref.php?ref=72b5ed9561fe66a1). А на «SAPE» я в обиде :) Не упрекайте за очепятки, пишу вслепую (http://ergosolo.ru/) и также делаю сайты (http://www.vashmaster.ru/) ;)
victor222
На сайте с 29.10.2009
Offline
198
#3
basilic:
Disallow: */view.download/
Или /*/view.download/

А для Гугла это актуально?

basilic
На сайте с 16.05.2008
Offline
369
#4
victor222:
А для Гугла это актуально?

да 10 гуглов

victor222
На сайте с 29.10.2009
Offline
198
#5

Спасибо! помогло! А как скоро они будут исключены из ПС?

igrinov
На сайте с 09.01.2009
Offline
134
#6

Для ускорения исключения, для яндекс вот здесь http://webmaster.yandex.ru/delurl.xml, а для гугла похожий инструмент есть в панели вебмастера

Персональный VPN/Socks сервер (https://cp.inferno.name/aff.php?aff=2419)
victor222
На сайте с 29.10.2009
Offline
198
#7
igrinov:
Для ускорения исключения, для яндекс вот здесь http://webmaster.yandex.ru/delurl.xml, а для гугла похожий инструмент есть в панели вебмастера

Так тут только по одному урлу? или можно весь каталог как то?

А то 100 урлов долго будет если по одному

igrinov
На сайте с 09.01.2009
Offline
134
#8

если не охота добавлять 100 урлов, то тогда ждать пока робот сам удалит урлы запрещенные в роботс

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий