xzorro

xzorro
Рейтинг
7
Регистрация
20.04.2009

burunduk, я понял о чем вы, действительно robots.txt не панацея от данной проблемы.

Но не все такие запросы умеют делать в Яндекс

спасибо, попробую на вкус

только вот вопрос не так ставился :)

burunduk, как вы найдете ссылки на сайт (сайт не ваш, а допустим конкурента т.е. мы исключаем возможность поюзать вебмастера-яндекса) если доноры имеют вышеприведенный robots.txt ?

что вы собрались выкачивать в этом случае ;) ?

впринципе на всё есть бумажка.

если не лень вычитайте пункт 7.4.4 http://www.w3.org/TR/html401/struct/global.html#h-7.4.4

там вроде чего то написано

Если брать за пример http заголовки, то впринципе порядок следования есть.

Хотя браузеры (и наверное поисковики) поймут любой порядок. Короче можно не париться над этим.

тогда методом тыка. только сохраняйтесь предварительно

или подобными программами размножайте.

подведем итог

для закрытия от просмотра исходящих ссылок данного сайта, на нем размещаем robots.txt следующего содержания:

User-agent: *

Disallow: /data/

User-agent: Slurp
Disallow: /

User-agent: MSNBot
Disallow: /

User-agent: Teoma
Disallow: /

User-agent: Scooter
Disallow: /

User-agent: Lycos
Disallow: /

User-agent: Aport
Disallow: /

User-agent: WebAlta
Disallow: /

спасибо всем кто помог

ссылки можно зарыть только с ваших сайтов.

вы хоть бы почитали что зацитировали у меня

неплохо.

но альтернатив бесплатных хватает

1 2345 6
Всего: 51