Вопрос по robots.txt

1 2345 6
S
На сайте с 23.06.2006
Offline
37
#22

Segey Не знаю, для кого вы выложили азы.

Теория не совпадает с практикой.

Особенно с полем Host:

Частые "немотивированные" заскоки роботов не дают спокойно спать профессионалам. Просто нужно знать то, о чем в статьях не пишут.

FlyAway

Могу только предположить, что у вас в файле Роботс , формат был неправильный или с ошибкой.

В результате главное зеркало Яша вычислил по полным внутренним ссылкам(если они были) или по умолчанию и засчитал без ВВВ.

Дальше... Через пол года у вашего хостера обновился сервис, и стал понимать неправильный Роботс. И все сьехало.

А вот на вопрос, стоит ли вам опять возвращаться к старому варианту без ВВВ, я ответить не могу.

Обратитесь в личку к профессионалу верхнего уровня, например к старичку с клюкой, у него статус - запридельщик.

Напутствие: Опишите ситуацию более подробно, у вас слишком много белых пятен.

Плодоносящий лимон (http://www.limon-room.narod.ru)
Segey
На сайте с 23.08.2005
Offline
404
#23
Не знаю, для кого вы выложили азы.

Для вас, чтобы таких вопросов не было.

Scmaks:
Теория не совпадает с практикой.

Да ну? Згачит писать нужно

Host: "Уважаемый гугл!"

URL: не индексируй мою гостевую!

Где они не совпадают?

Частые "немотивированные" заскоки роботов не дают спокойно спать профессионалам.

Профессионалам? Профессионалы привыкли и никак не реагируют на эти заскоки.

Deni
На сайте с 15.04.2006
Offline
355
#24

Вопросик возник

Страница может быть открыта как http://www.****.ru/login/ и как http://www.****.ru/login

То есть без слеша на конце

Стоит ли прописывать оба этих варианта? Или ограничиться только со слешем. На сайте все урлы прописаны со слешем но поисковик мало ли где найдет упоминания без слеша.........

User-agent: *

Disallow: /usercp/

Disallow: /register/

Disallow: /login/

Disallow: /search/

AVV
На сайте с 31.07.2006
Offline
84
AVV
#25
Deni:
Стоит ли прописывать оба этих варианта? Или ограничиться только со слешем.

В данном случае, должно быть только (!!!) без слеша:

закрываем и для http://www.****.ru/login/ и для http://www.****.ru/login

Disallow: /login

AVV
На сайте с 31.07.2006
Offline
84
AVV
#26
Deni:
Стоит ли прописывать оба этих варианта? Или ограничиться только со слешем. На сайте все урлы прописаны со слешем но поисковик мало ли где найдет упоминания без слеша........./


Проблема отсутствующего завершающего слэша

Описание:

Каждый вебмастер может спеть песню о проблеме отсутствующих завершающих слэшей при использовании URL ссылающихся на каталоги. Если они отсутствуют, сервер выдает ошибку, потому что если вы пишете /~quux/foo вместо /~quux/foo/ сервер ищет файл foo. И поскольку этот файл является каталогом, происходит ошибка. В действительности, в большинстве случаев это исправляется само, однако, в некоторых случаях, нужно самим эмулировать этот механизм. Например, после того, как вы сделали массу сложных редиректов URL на CGI скрипты и т.д.
Решение:

Решение этой тонкой проблемы — это позволить серверу добавлять завершающий слэш автоматически. Чтобы сделать это правильно, мы должны использовать внешний редирект, для того чтобы браузер правильно запрашивал картинки и пр. В случае если бы мы сделали только внутренний редирект, это бы работало только для самой страницы каталога (страницы по-умолчанию), однако были бы проблемы при наличии любых картинок на этой странице с относительными URL, потому что браузер сделал бы запрос на вставку in-lined объекта. Например, запрос для image.gif на странице /~quux/foo/index.html без внешнего редиректа выглядел бы как /~quux/image.gif!

Поэтому, для того чтобы сделать это трюк, мы пишем в .htaccess:

RewriteEngine on
RewriteBase /~quux/
RewriteRule ^foo$ foo/ [R]

Сумашедший и ленивый может даже сделать следущее в файле .htaccess находящемся в корне веб-пространства своего сайта. Однако, следует отметить, что это создает некоторые накладные расходы.

RewriteEngine on
RewriteBase /~quux/
RewriteCond %{REQUEST_FILENAME} -d
RewriteRule ^(.+[^/])$ $1/ [R]

полный текст: http://www.egoroff.spb.ru/portfolio/apache/rewriteguide.html

A
На сайте с 15.08.2006
Offline
27
#27

Если мне надо запретить индексаци страниц forum/topic.php?forum=5&topic=71&v=#1155832652 , bad.php, bad2.html то я пишу в роботс:

User-agent: Googlebot

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad.php

Disallow: /bad2.html

Host: www.my.ru

User-agent: Yandex

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad.php

Disallow: /bad2.html

Host: www.my.ru

User-agent: *

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad.php

Disallow: /bad2.html

Host: www.my.ru

правильно?

и подскажите ещё пожалуйста где можно взять User-agent: других поисковиков.

не надо поправлять орфографически и пунктуационные абшибки, они СПЕЦИАЛЬНО вписываются для придания интернет общению более не формальной обстановки 8)
AVV
На сайте с 31.07.2006
Offline
84
AVV
#28

User-agent: Yandex

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad

Disallow: /bad2

Host: www.my.ru

User-agent: Googlebot

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad

Disallow: /bad2

User-agent: *

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad

Disallow: /bad2

-----------

Другие: StackRambler, Aport, msnbot, Slurp

FlyAway
На сайте с 01.06.2005
Offline
439
#29

AVV, можно ещё короче ;)

User-agent: Yandex

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad

Disallow: /bad2

Host: www.my.ru

User-agent: *

Disallow: /forum/topic.php?forum=5&topic=71&v=#1155832652

Disallow: /bad

Disallow: /bad2

гугль не нужно писать отдельно, для него работает юзер-агент для всех - *

Сердюченко Андрей (http://www.serdyuchenko.ru/) Масонская ложа — SЕ-Team.ru (http://goo.gl/YIjV6h) :)
A
На сайте с 15.08.2006
Offline
27
#30

Спасибки за ответы =)

Если стрнаица уже запрещена для индексации в роботс нужно ли её заключат в тег ноиндекс или это уже масо масляное?

1 2345 6

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий