Помогите плиз с robots.txt (как правильно закрыть дубли)

12
Shessmaster
На сайте с 15.10.2007
Offline
240
#11
iq2003:
Disallow: /*search.html? - вот здесь нужен слеш или нет?

Слеш обязательно нужен, куда же без него!

Почитайте, http://help.yandex.ru/webmaster/?id=996567

M
На сайте с 25.03.2009
Offline
44
#12
Shessmaster:
Слеш обязательно нужен, куда же без него!

Почитайте, http://help.yandex.ru/webmaster/?id=996567

скажите, по вашему, нижеследующая конструкция закроет следующие за ней урлы или нет?

Disallow: *search.html?


site.ru/s/search.html?bla
site.ru/search.html?bla

или это сарказм был? жара наверное... развели спор ни о чём...

ПС: ТС, вы почитайте фак яндекса про роботс, есть хорошие примеры...

/ru/forum/comment/1592771 () =)
Shessmaster
На сайте с 15.10.2007
Offline
240
#13
mlsha:
скажите, по вашему, нижеследующая конструкция закроет следующие за ней урлы или нет?
Код:

Disallow: *search.html?

Код:

site.ru/s/search.html?bla
site.ru/search.html?bla

С этим нужно экспериментировать, а вот так сработает точно:

Disallow: /*search.html?

iq2003
На сайте с 31.03.2005
Offline
230
#14

Ребят, Спасибо Огромное! ;) Разжевали чайнику! :) Роботс загрузил. Тему можно закрывать! :)

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий