Да, тема хороша. И финал какой. :)
Без проблем.
Вот, в этом и проблема. К примеру, маленькая аудитория для конкретно этого сайта оборачивается тем, что товар чаще покупают в крупных интернет- или офлайн-магазинах, а не непосредственно у производителя.
Поскольку трафика больше и там, и там, причём не такого специфического, а вообще. Просто покупают как бы заодно.
Соответственно, хочется не просто больше ключей, но как раз таких, чтобы зайдя вроде бы так... по сторонам оглядеться, человек ушёл уже не один, а с покупкой.
KupluSsilki, здесь защита другого рода - анализ посетителя (совокупности идентификаторов) на протяжении относительно большого промежутка времени и множества сессий. Накрутчики ограничены в ресурсах (будем говорить банальными дежурными штампами) и чем большую активность в скликах они себе позволяют, тем легче выявляются при анализе общего трафика.
Тогда как проанализировать один сайт, на котором нужно отметить точки клика по внутренним ссылкам и маршруты мышиного курсора (и, после этого, запустить на него ботов) - несколько иная задача.
Что это значит? Появились покупатели?
overnight, можно публичную оценку, чего следует ожидать от Вашей работы такому малоокученному сайту, как этот - billiards-tables.ru?
В паблике спрашиваю специально, дабы и остальные читатели составили примерное представление, что, почему и почём они получат.
Статистика открыта, есть кампания в Директе на пару десятков НЧ, ну а тематика и так ясна. Работает Ваш метод для подобных специфических ресурсов? Насколько эффективен?
Это понятно. Но где заявления, подтверждающие, что "инфа о последовательности кликов" берётся за основу для формирования каких-либо ПФ (да и вообще в них хоть как-то участвует)?
Тов. Гудман, вопрос к тебе. "Яндексоиды их делали где-то в сети, или слух дошел?" ;)
Порядки? Даже не в разы, смею предположить.
Вебвизор сводится к обработкам js-событий, эмуляция которых реализована годы назад.
Причём, если говорить промышленных масштабах - мне давеча рассказали про работоспособную методу, позволяющую обойти браузерные ограничения даже в IE, на уровне подмены системных библиотек (среди представителей ПС, читающих эту тему, наверняка ведь есть завсегдатаи social.msdn.microsoft.com, верно? :)), не говоря о более открытых браузерах.
Что 1) принципиально сводит к нулю эффективность всяких обфускаторов, заворачивающих три операции в стопиццот строчек кода, или хитрых проверок, навроде динамической смены разрешения экрана и прочих аппаратных идентификаторов, а так же 2) ставит под вопрос саму целесообразность сбора и анализа этих данных - ресурсозатраты, о которых был смайлик в реплике №23, возрастут как раз у ПС, тогда как эмуляция (обработка и подмена) js-событий, у желающих поэкспериментировать, будет проходить на лету даже при трафике в десятки тысяч "посетителей".
И зачем, стало быть, ПС нужно (будет) городить такой огород?
Об этом где-то написано? Недогоняю что-то.
Если не сложно.
Яндексу-то? Само-собой. ;)
Бар, то бишь? А то в контексте беседы всё равно не понятно. И что за хеш-то?
AndyM, а что за каталоги?