Вопрос по robots.txt

zaka4ek
На сайте с 24.03.2007
Offline
209
523

Никак не соображу, что прописать в robots.txt чтобы закрыть от индексации все страницы, которые содержат get_filter

Пример ссылки

http://www.domen.ru/catalog/kategoriya/razdel/?fid_from=80&fid_to=1155&fp544[]=535&fp544[]=562&get_filter=1

Продвигай с умом Sape (http://www.sape.ru/r.yoJRtSiZZR.php) Продвигай с умом Gogetlinks (https://gogetlinks.net/?inv=sya7n2)
Dimonka
На сайте с 09.09.2009
Offline
60
#1

*/*get_filter* по идее

Star Citizen - самый дорогой космосим (http://star-citizen-ru.ru)
zaka4ek
На сайте с 24.03.2007
Offline
209
#2

Dimonka, http://xbb.uz/web/robots.txt пишет, что страница разрешена для индексирования...

wwwwww
На сайте с 29.04.2011
Offline
195
#3

/*get_filter=

Видишь? Свободная подпись.
mvg
На сайте с 16.08.2011
Offline
62
mvg
#4
zaka4ek:
Dimonka, http://xbb.uz/web/robots.txt пишет, что страница разрешена для индексирования...

Так у вас в роботс.txt не видно этой директивы, приведите полную строку как вы это прописываете

zaka4ek
На сайте с 24.03.2007
Offline
209
#5

mvg, Что значит не видно, естественно не видно, потому что там не моя страница...

Я просто ссылку на сервис дал.

А прописывал я по всякому уже... В том числе как и тут писали...

А yandex пишет синтаксическая ошибка

mvg
На сайте с 16.08.2011
Offline
62
mvg
#6

Как уже писали

Disallow: */*get_filter*

или более жестко

Disallow: *get_filter*

проверить можно здесь

zaka4ek
На сайте с 24.03.2007
Offline
209
#7

А кто знает, работает ли директива Visit-time: в robots.txt?

P.s. Проверил не поддерживает

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий