Яндекс не реагирует на robots.txt?

1 23
Megavolt
На сайте с 23.12.2005
Offline
179
#21
pan:
User-Agent: Yandex
Disallow:
Host: www.site.ru

User-agent: *
Disallow:

это правильно,

Иногда лучше жевать.... (С)
bright
На сайте с 12.10.2006
Offline
20
#22

удивительно быстро такую простую тему расписали на 3 страницы когда достаточно было по сути одного поста

victim
На сайте с 12.02.2006
Offline
189
#23

bright, Так сами видите сколько споров "правильно" "не правильно"

Я больше запутался чем нашел правильный вариант.

CheckTrust.Ru (https://checktrust.ru/) - новый сервис для проверки ТРАСТа и заСПАМленности сайтов.
MaulNet
На сайте с 07.08.2005
Offline
348
#24

Другой вопрос - при каждом заходе на сайт бот Яндекса просматривает роботс? Я тут с одним клиентом уже весьма долго жду пока же наконец яндекс расклеит 2 адреса... а пока он это не сделает - в общем то время идет впустую. :( Самое забавное, что зеркало, которое Яндекс принял за основное уже давно отсутствует в индексе и соответственно удалено, но при этом склейка с нормальным все равно держится. :)

victim
На сайте с 12.02.2006
Offline
189
#25

MaulNet, При каждом должен. Это вообще перый файл который смотрит поисковик.

Ну это на сайте написано про robots.txt. Это не я придумал.

K. Ermakov
На сайте с 10.12.2004
Offline
328
#26
victim:
Так сами видите сколько споров "правильно" "не правильно"

Такой вот минус публичного места обсуждения, где могут писать и те, кто знает, и те, кто не знает, но имеет мнение.

Рекомендую обратиться к первоисточнику: http://www.robotstxt.org/wc/robots.html

С уважением, Константин Ермаков, absite.ru: онлайн кроссворды (http://absite.ru/); searchsuggest.ru: поисковые подсказки доставляют (http://searchsuggest.ru/).
T.R.O.N
На сайте с 18.05.2004
Offline
314
#27
victim:
MaulNet, При каждом должен. Это вообще перый файл который смотрит поисковик.
Ну это на сайте написано про robots.txt. Это не я придумал.

Вы ошибаетесь в корне.

1. Инструкции в роботс, это не правила, а рекомендации.

2. Посмотрите логи сервера, и убедитесь, что роботс читается не каждый раз (индексатором)

3. Зеркальщик, ходит очень медленно, поэтому ждать результатов переклейки приходится не один месяц(часто, но бывают исключения)

4. Индексатор, заходя на сайт, за один заход, берет тольок часть информации, поэтому ждать полной замены в индексе приходится очень долго.

Чтобы избежать проблем, нужно сразу все прописывать в роботс, при старте сайта. Потом приходится расплачиваться кучей времени.

От воздержания пока никто не умер. Хотя никто и не родился! Prototype.js был написан теми, кто не знает JavaScript, для тех, кто не знает JavaScript (Richard Cornford)
fima32
На сайте с 12.01.2006
Offline
132
#28

Писать надо так:

User-Agent: Yandex

Disallow:

Host: www.site.ru

User-agent: *

Disallow:

Первая запись именно для яндекса, но гугля, к примеру, не понимает директиву Host и игнорирует целиком эту запись. Поэтому, если к примеру у Вас что-то закрыто в, например Disallow: /admin/, то гугля проиндексирует этот закрытый от поисковиков раздел, несмотря на запись, поэтому добавляется вторая запись без Host.

seal
На сайте с 10.10.2006
Offline
62
#29
victim:
У меня с самого рождения на сайте лежит robots.txt с директивой Host: www.site.ru
Но в выдаче показывается site.ru
Да кстати и сслочки на сайт в большинстве своем стоят с www
Это что может быть?

ЗЫ Произошла расклейка доменов с www и без везде!

Может это из-за глюков последнего времени?

у меня такая директива уже 3 месяца лежит :(

--- спутниковое телевидение (http://www.sat-expert.com/)
1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий