Отличные нововведения, давно ждал возможность автоматического отключения показа рекламы в праздничные дни, приходящиеся на будни. Спасибо, Яндекс! :-)))
Вот такой анкор на днях увидел
"Основы правильного питания. Правильное питание в магазине."
Вот что на вопрос по поводу ссылок на определенную страницу мне ответили представители CS Yazzle в начале августа:
"По поводу ссылок на точно заданную страницу:
Проблема в том, что получая ссылки обычным запросом link:site.ru в
выдаче yahoo может попасться "сквозняк", а учитывая ограничение в
выдаче 1000 результатов складывается ситуация, что мы получим малую
долю от всех ссылающихся сайтов. Например
http://siteexplorer.search.yahoo.com/search?p=http%3A%2F%2Fyazzle.ru&bwm=i&bwmf=u&bwms=p&fr=yfp-t-501&fr2=seo-rd-se
- большую часть из показанных доноров "забил" сайт eseo.ru, то есть
большая часть доноров осталась неизвестной. Используя запрос
linkdomain:site.ru получаем доноров, сгруппированных по доменам и в
первую тычячу результатов попадёт больше доноров, таким образом,
запрос linkdomain предоставляет больше информации. Пример -
http://siteexplorer.search.yahoo.com/search?p=http%3A%2F%2Fyazzle.ru&bwm=i&bwmf=s&bwmo=&fr=yfp-t-501&fr2=seo-rd-se
Если Вам всё-же необходимо получать ссылки на точно заданную страницу то можно поступить следующим образом:
1. В аттаче к письму архив с конфигурационными файлами для поисковика
Yahoo, запросы отредакитрованы таким образом, что для получения списка
доноров будет использоваться запрос link.
2. Для подключения этих поисковиков необходимо распаковать архив в
подпапку engines в папке с программой. Должно получиться CS
Yazzle\engines\Yahoo1 и CS Yazzle\engines\Yahoo2.
3. При следующем запуске программы Вы увидите два новых поисковика
Yahoo_L и Yahoo_Lwww, для получения ссылок на точно заданную страницу
нужно использовать их вместо обычного Yahoo (поисковик с именем Yahoo
лучше отключать в таком анализе).
4. Адрес анализируемой страницы нужно указывать без www."
Я бы http://www.seomoz.org/blog еще порекомендовал
Была подобная проблема пару месяцев назад. Написал в Рамблер - вот переписка:
> Добрый день.
> Подскажите, пожалуйста, понимает ли робот Рамблера директиву
> crawl-delay в robots.txt? Обратил внимание, что в последнее время
> робот Рамблера сильно полюбил сервер, на котором находятся мои
> проекты, хотелось бы упорядочить его посещения. :-)
> С уважением,
> Максим
> =======================================================================
К сожалению, указанную Вами директиву робот не индексирует. Со своей
стороны Вы можете поставить задержку на ответ роботу.
--
С уважением,
Служба поддержки поиска
mailto:Search.support@rambler-co.ru
Пришлось ограничить количество запросов в секунду с IP Рамблера.
Да, webst.ru что-то заленился совсем - написал им сообщение в тикет-систему недели 2-3 назад - молчок. Отправил напоминающее сообщение в Аську, написал на support@ - ситуация не изменилась. Жаль, раньше довольно оперативно отвечали. :-(
Да, возможно, не совсем верно выразился. Вот есть статистика, предоставляемая хостером, допустим, Webalizer'овская. Насколько ее данные более верны, чем данные бесплатных счетчиков?
NikBatman, вкус у Лапсанг Сушонга и вправду...мм...специфический, не могу не отметить...:-))
Попробуйте что-нибудь из Улунов (Оолонгов, Oolong) - это зеленый, или Пуэров - черный (или красный, по классификации китайцев :-))
А Вы авторизовались перед вводом запросов?
Просто у меня, после авторизации, вышеуказанный Limits reached вылез после ввода запросов эдак 50-70-ти.
Я писАл их специалистам об этой ошибке в начале ноября. Ответили "Мы работаем над решением этой проблемы". Пока регулярно встречаю в новых ссылках проекты, занесенные в GBL. Надеюсь, и вправду работают. :)