- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Волею судьбы получил в распоряжение хорошо отфильтрованную микростатистику на одном своем проекте (нормальном, белом, хоть и не совсем обычном). Возможно кому-нибудь даст почву для размышлений. :smoke:
Итак, методика. Есть сайт, полностью запрещенный для индексирования всем поисковикам и отдающий javascript на сторонние ресурсы (партнеры делают у себя вставки вида <javascript src="...").
Вполне разумно, что у Яндекса при индексации партнерских сайтов появляется желание проверить - не злонамеренный ли код?
Результат анализа логов.
1) В настоящий момент проверяющий робот маскируется следующими user-agent-ами (на полноту списка не претендую):
2) приходы замаскированного робота замечены из нижеперечисленных подсетей
повторений ip "чужих" сетей не заметил, вполне возможно - динамические (не утверждаю - мало данных)
3) во всех зафиксированных случаях обнаруженны однообразно-дурацкие рефереры, которые имеют приблизительно такой вид
Обратите внимание, что urlencod-еная строка в нижнем регистре, что необычно для логов ;)
4) cookie для текущего ip-адреса запоминает, по крайней мере до 40 минут (куки выставлялись долгосрочные), НО! Для нового user-agenta и старого ip-адреса это есть неправильно :D: .
Очистку cookie по окончании сесси робот отрабатывает корректно. А точнее - следующий заход для робота - новая сессия, даже через минуту.
5) периодичность.
Проект выложен в сеть 6 декабря.
Первый единичный заход робота замечен 18 декабря, второй (тоже единичный) 24 декабря, а затем, с 6 января - ежедневно и по нескольку раз в день.
Мой скоропалительный вывод: механизм используется Яндексом для борьбы в том числе и с клоакингом (помимо поиска вредоносного кода).
Может это не Яндекс? Реферера кто угодно может подделать.
Может это не Яндекс? Реферера кто угодно может подделать.
большинство запросов идут из корпоративной сети яндекса, я выше отметил это