- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Робот заходит на страницу
25/09/2003 11:45
HTTP_USER_AGENT:Googlebot/2.1 (+http://www.googlebot.com/bot.html)
IF-MODIFIED-SINCE: Fri, 15 Aug 2003 03:41:35 GMT
/blabla.ru/zz.php?a=44&b=23
я ему отдаю
HTTP/1.0 304 Not Modified
тут же этот робот опять делает запрос к этой же странице
(но у же без IF-MODIFIED-SINCE)
25/09/2003 11:45
HTTP_USER_AGENT:Googlebot/2.1 (+http://www.googlebot.com/bot.html)
/blabla.ru/zz.php?a=44&b=23
и успешно её кушает
Так вот кто может объяснить, зачем он тут же второй раз забирает эту страницу если я ему человеским языком сказал HTTP/1.0 304 Not Modified
?
А если давать HTTP/1.1 304 Not Modified - не помогает ?
А если давать HTTP/1.1 304 Not Modified - не помогает ?
я забыл упомянуть, что для большинства документов if-modified-since обрабатывается гуглом корректно, а вот попадаются такие экзепляры пример которых я привет в своем первом топике.
А это делается для того, чтобы действительно проверить, менялся ли документ, или роботу голову морочат.
Робот-шпион! :D Помню, ходили одно время легенды о таких. Из разряда оптимизаторских баек. Дескать, есть спецроботы для того, чтоб отлавливать клоакинг. Запускаются с секретных IP, представляются Мозиллой и сличают документы. Может, и этот из той же серии :)
Сергей, я думаю все не совсем так.
Скорее всего это не робот-шпион, да и вообще никакой не специальный робот, да и не в роботе дело, а в алгоритме построения списка ссылок на страницы для посещения роботом. Например, появилась внешняя ссылка на страницу, но страницу эту Гугл знает и в базе ее имеет, так вот и появляется в списке ссылок одна и та же страница, только первая ссылка с известной датой изменения документа, а вторая как бы новая. Позже он их склеивает.
Вот и получается такая карусель.
mnt, Вы проверьте, не мог ли Гугл найти новые ссылки именно на те страницы, которые он запрашивал дважды?