Проблема с norobots

O
На сайте с 21.03.2003
Offline
0
1101

Хочу я получить некоторую информацию из Яндексовского поиска. С локального сервера, где лежит копия Я.страницы все на ура. А при обращении к реальному Я. посылает к href="http://www.yandex.ru/norobot/d42e082f-3e775b53-58a3.html

Что с этим делать?

С уважением, волхв Огнеяр http://www.pagan.ru Круг Языческой Традиции
Григорий Селезнев
На сайте с 25.09.2001
Offline
298
#1

только не вздумай ходить на этот URL ;-)) дальше проверяй синтаксис ;-))

euhenio
На сайте с 21.09.2001
Offline
357
#2

Автомат работает? Вообще, раньше все ссылки на директорию /norobot/ вели к бану ip на некое время (несколько часов?) - поскольку человеку эти ссылки не видны.

с ув., Евгений Трофименко seo блог Trofimenko.ru ( http://trofimenko.ru/ ) но ыыы мало обновляется... Tools.Promosite.ru - анализатор апдейтов Яндекса (пожертвуйте лимиты на Яндекс.XML! ( https://searchengines.guru/ru/forum/801888/page7#comment_11942489 )) Konvr.ru - увеличение конверсии сайта на 81% за 4 недели ( http://konvr.ru/ )
O
На сайте с 21.03.2003
Offline
0
#3

2 euhenio:

Обычный запрос в том же окне работает без проблем

2 Professor:

>дальше проверяй синтаксис ;-))

Синтаксис чего? В апорте или рамблере тот же робот работает отлично, но я Яндекса хочуууу.....

K
На сайте с 31.01.2001
Offline
737
#4
В апорте или рамблере тот же робот работает отлично, но я Яндекса хочуууу.....

Не вполне понятно, что вы делаете. Вы какому-то роботу подсовываете сохраненную страницу поиска Яндекса для вытягивания всего остального по ссылкам? Тогда перечитайте внимательно лицензию Яндекса.

Суть в том, что у яндекса есть файл robots.txt, и все роботы, в том числе и ваш, обязаны не лазить в указанные там разделы.

Нарушать, или нет - решать вам.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
N
На сайте с 21.11.2001
Offline
152
#5
обязаны не лазить в указанные там разделы

Э-э, уважаемый! Вы чего? Может мне тоже написать свою лицензию? А потом подавать в суд на Яндекс, за то, что некоторые их роботы игнорируют robots.txt?

Григорий Селезнев
На сайте с 25.09.2001
Offline
298
#6

робот перловый? PHP? на чем писан? ... иногда для отлова ошибок помогает натравление своего робота на свой же скрипт, кидающий мылом все $ENV переменные ... может там заметишь, что не так ...

P.S. скорее всего ты не кодируешь русский текст в %E7%E0%EF%F0%EE%F1

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий