- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предыстория.
Примерно год назад SpyLog вскользь анонсировал свою поисковую систему SpySearch. Неосторожные слова проскользнули в годовщину со дня рождения Спайлога:
Другой нашей экспериментальной разработкой стал поисковый механизм SpySearch. В отличие от обычных систем, SpySearch индексирует страницы по их популярности среди посетителей (по совокупности частоты заходов и среднего времени на сайте). То есть, если вы зададите слово "самолет", то получите не список страниц, на которых оно присутствует, а отсортированный список страниц, которые пользователи находили по этому слову, и на которых они долго задерживались.
Вырвалось и забылось. Вначале я думал, что негласные похороны SpySearch связаны с тем, что Спайлог не хотел распыляться, а покупать систему, которая сильно завязана на информации от чужого счетчика, никто не захотел. Но в самом конце прошлого года, на семинаре РОЦИТ, Зимин реанимировал в своей речи SpySearch:
...Например, система SpySearch позволяет находить сайты, на которых пользователи находились дольше всего после использования поисковой системы, то есть сайты, которые пользователи оценивают как соответствующие поисковому слову.
Обнаружив сегодня это второе упоминание, я предположил, что SpySearch все-таки выложена в интернет. Так и оказалось -- SpySearch работает и доступна всем.
Теперь о результатах тестирования.
Они просто разочаровывают. Несмотря на красоту идеи, количество шума такое, что из SpySearch нельзя извлечь почти ничего полезного. Становится понятно, почему дальше анонсов дело не пошло.
Например, по слову юмор в top-5 есть сайт Хроники Харона (энциклопедия смерти), страница толкиенистов, страница о вакансиях и т.д., это не единственный такой запрос. Скажем, по запросу Яндекс первые две ссылки -- данный форум.
Но почему от красивой идеи осталось так мало при воплощении?
Во-первых, Спайлог неверно вычисляет для поисковых запросов число просмотренных страниц и время, проведенное на сайте -- у меня есть немало подтверждающих примеров. Вот только сегодня какой-то посетитель из Хабаровска (по логам же SpyLog!) зашел на сайт с Яндекса по запросу "смешные рассказы" и прочел 4 страницы, не считая возвратов. Спайлог же зарегистрировал 1 просмотренную страницу.
На этом можно было бы остановиться, дальше все вычисления бесполезны. Но все-таки предположим, что иногда Спайлогу удается верно подсчитать характеристики запроса. Исследовав запросы, которые мне хорошо знакомы, я пришел к выводу, что проблема также в технологии вычисления релевантности.
1. SpySearch придает слишком большое значение отдельному посетителю (особенно заходящему регулярно на сайт по одному и тому же запросу). Лучше выдавать меньшее количество ссылок, но более релевантных.
2. Информация в SpySearch строится на косвенных предположениях о ее ценности. Поэтому нужно пытаться максимально исключить сильные шумы. Мне кажется, неплохим решением могло бы стать выделение кластеров сайтов, близких по теме, и соответствующих им групп запросов. В таком случае страницу, случайно попавшую по какому-либо запросу, можно было бы понизить в рейтинге, если она не входит в основной кластер.
В любом случае, даже несмотря на неудачную реализацию, SpySearch может помочь в исследовании запросов, а именно, того, кто больше всего баннеропоказов от них получает.
Так что игрушка относительно полезная.
С уважением,
Александр Садовский.
Да, идея, по сути, неплоха. Релевантность результатов такого поиска можно существенно повысить, если наряду со временем, которое пользователь проводит на странице, учитывать еще и количество поисковиков, которые на нее ссылаются по данному запросу. Скажем, если по запросу "юмор" на Вашу страницу приходят и с Яндекса,и с Апорта, и с Рамблера, то с огромной долей вероятности она соответствует тому, что ищет пользователь. Да и шума будет поменьше.
Я вообще планировал пойти еще дальше Спайлога. Если в статистике для каждого сайта отбирать коррелирующиеся запросы, сделанные в разных поисковых машинах, получается отличный кластер, который лучше всего характеризует сайт. Не знаю правда, возникали ли подобные мысли у Спайлога.
[This message has been edited by Vyacheslav Tikhonov (edited 08-09-2001).]
Насколько я знаю, на таком принципе функционирует всем известный directhit.com
Способ измерения несколько другой, но это не меняет сути.