Закрыть для индексации пару доменов в robots.txt

M
На сайте с 21.06.2009
Offline
4
553

Есть сайт со всякой-всячиной, пользователи выкладывают ссылки на разные файлообменники:

например http://depositfiles.com/321321321 или http://rapidshare.com/files/321321/

Интересует, можно ли закрыть полностью от индексации домены depositfiles.com и rapidshare.com, и как это лучше сделать?

KeTal
На сайте с 25.08.2005
Offline
54
#1

<span onclick='document.location="http://depositfiles.com/321321321";'><u>Link</u></span>

M
На сайте с 21.06.2009
Offline
4
#2
KeTal:
<span onclick='document.location="http://depositfiles.com/321321321";'><u>Link</u></span>

Мне нудно чтобы сотни ссылок с разными урлами но одним доменом скрылись от индекса.

Prior
На сайте с 03.03.2008
Offline
194
#3

Как вариант можно замену в код скрипта вставить - заменять обычные ссылки на неиндексируемые по ключевым словам.

Ответы на вопрос - https://answers.net.pl
M
На сайте с 21.06.2009
Offline
4
#4
Prior:
Как вариант можно замену в код скрипта вставить - заменять обычные ссылки на неиндексируемые по ключевым словам.

Это как реализовать то?

Prior
На сайте с 03.03.2008
Offline
194
#5
m00m:
Это как реализовать то?

Как-как...нужную функцию замены в код вставить :) Может кто из добровольцев здесь напишет. Нет - обращайтесь, могу и я сделать.

M
На сайте с 21.06.2009
Offline
4
#6

А что через robots.txt это реализовать невозможно?

ewg777
На сайте с 04.06.2007
Offline
225
#7
m00m:
А что через robots.txt это реализовать невозможно?

Нет. Никак.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий