- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
хттп://www.axandra.com/news/newsletter128.htm
"Googlebot now also accepts the HTTP 1.1 protocol. The new spider might be able to understand more content formats, including compressed HTML."
"The first theory is that Google uses the new spider to spot web sites that use cloaking, JavaScript redirects and other dubious web site optimization techniques. As the new spider seems to be more powerful than the old spider, this sounds plausible."
Этого давно следовало ожидать.
и похоже что это насекомое уже давно орудует ... в логах вижу обращения у жабе
js он с весны ест, причем со всех подсетей.
А теории о том что это более мощный бот для отлова спама звучат несерьезно, так как никаких предпосылок к этому не приводится. Особенно насчет клоакинга весело... показывает "грамотность" автора.
Interitus, это дезинформация от гуля, меня всегда интересовал вопрос, как можно непосредственно по коду отследить редирект на js.
Отследить-то можно - проинтерпретировать, сэмулировать поведение браузера, при современных вычислительных мощностях - вполне решаемо.
А вот как можно из заходов робота, скачивающего страницы, из другой подсети, сделать вывод о том что Гугль с помощью этого робота пытается определить сайты с js-редиректами и клоакингом - это загадка... особый склад ума иметь надо.