Помогите плиз с robots.txt (как правильно закрыть дубли)

12
iq2003
На сайте с 31.03.2005
Offline
230
1795

Заранее извиняюсь за ламерский вопрос :o

В общем, есть сайт, на нём много лишних страниц, страниц поиска, сортировки. Все имеют похожий вид:

http://sait.ru/razdel/search.html?uname=garik&opt=111

http://sait.ru/razdel/search.html?uname=garik&opt=222

http://sait.ru/razdel/search.html?uname=garik&opt=333

1) Т.к. Яндекс сейчас не очень любит дубли и прочее, хочу всё это закрыть. Правильный ли вот такой robots.txt:

User-agent: Yandex

Disallow: /search.html

Host: sait.ru

User-agent: *

Disallow: /search.html

(или надо Disallow: /search.html? или Disallow: /search.html?uname) ???

2) Нужно ли для Гугла также отдельно прописывать User-agent: Googlebot или он и так поймёт? :)

M
На сайте с 25.03.2009
Offline
44
#1

вот так напишите и гугл и яша и все остальные нормальные роботы корректно расценят

User-agent: *

Disallow: *search.html?*
/ru/forum/comment/1592771 () =)
K
На сайте с 31.01.2001
Offline
737
#2

mlsha, а нафига звездочка на конце?

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
iq2003
На сайте с 31.03.2005
Offline
230
#3

так как всё-таки правильно будет, вот так? :) - *search.html?

а зачем звездочка впереди, разве слэш не правильно будет? или всё-таки лучше звездочку? :)

вот блин, чайник я в этом деле...

FlyAway
На сайте с 01.06.2005
Offline
439
#4

User-agent: Yandex

Disallow: /razdel/search.html?

Host: sait.ru

User-agent: *

Disallow: /razdel/search.html?

сделай и все, если много разделов то

User-agent: Yandex

Disallow: *search.html?

Host: sait.ru

User-agent: *

Disallow: *search.html?

Сердюченко Андрей (http://www.serdyuchenko.ru/) Масонская ложа — SЕ-Team.ru (http://goo.gl/YIjV6h) :)
K
На сайте с 31.01.2001
Offline
737
#5

FlyAway, зачем заведомая дезинформация? Смотрите вниметельнее:

FlyAway:
Disallow: /search.html?

Никакого запрета нет, все указанные урлы разрешены.

Disallow: /*search.html?

А вот так запрет сработает.

iq2003, если что, в Яндексе есть форма для тестирования robots.txt и урлов: http://webmaster.yandex.ru/robots.xml .

FlyAway
На сайте с 01.06.2005
Offline
439
#6
Kost:
зачем заведомая дезинформация? Смотрите вниметельнее:

Прочитайте внимательнее мой пост выше. Я его опубликовал и на живую потом подредактировал.

Тут зависит от того, что может быть весь контент в /razdel/ лежать и не имеет смысла тогда применять *, проще конкретное правило прописать и не изобретать велосипед. При условии же, если много разделов то да, действительно см. выше пост * нужна.

FlyAway добавил 16.07.2010 в 12:58

Kost:
Никакого запрета нет, все указанные урлы разрешены.

Disallow: /*search.html?

тут лишний слеш.

iq2003
На сайте с 31.03.2005
Offline
230
#7

Ребят, Спасибо!!! Значит сделаю вот так:

Disallow: /*search.html?

M
На сайте с 25.03.2009
Offline
44
#8
Kost:
mlsha, а нафига звездочка на конце?

ну как сказать :) можно и его не ставить т.к. он там по умолчанию домысливается... я его написал только для того чтобы явным образом показать, что запрещаем к индексации всё, что содержит данную строку...

а так, конечно, эти строки сработают абсолютно одинаково:

Disallow: *search.html?*

Disallow: *search.html?
iq2003
На сайте с 31.03.2005
Offline
230
#9

что-то вы меня немного запутали)))

Disallow: /*search.html? - вот здесь нужен слеш или нет? :)

K
На сайте с 31.01.2001
Offline
737
#10

Я пишу его всегда, урлов без слеша не бывает.

Но вы можете поэкспериментировать и не писать. Звездочка должна подходить и под слеш.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий