Ботовой трафик на сайте

Александр
На сайте с 18.03.2020
Offline
65
#61
sagamorr #:

Тема из накрутки ботами превратилась в обсуждение антибота, который судя по всему еще и не работает.

Народ может пойдете в курилку этого антибота обсудите?

Прошлой весной (как и у всех), на мои сайты тысячами шли боты: соц.сети, прямые заходы и т.д.
Я просто забил. Не произошло вообще ничего с сайтами.

Тут либо крутить так же, как и все, либо не крутить.
Яндексу плевать, он косит бабло этими ботами. Как-то так.

S
На сайте с 12.10.2012
Offline
134
#62
Антоний Казанский #:

Я думаю, что сами поисковики заинтересованы в этом. Возможность форсировать результаты притягивают многих и это огромный массовый спрос. Думаю, они нацелено создавали эту возможность, чтобы сформировать доп. рынки и управлять ими. Примерно так же как разработчики антивирусного ПО делают вбросы новых вирусов, а потом сами же пишут обновления для их нейтрализации для стимулирования продаж. 

Не поисковики, а только Яндекс не фильтрует всех этих ботов и использует ПФ как чуть ли не единственный критерий ранжирования. Не думаю, что они этим самым хотят сформировать доп. рынки и управлять ими 😂

Тут они скорее только о заработке своем заботятся, половину бюджетов директа боты скликивают. А тут отфильтруешь всех ботов и заработок с директа на половину просядет.

Антоний Казанский
На сайте с 12.04.2007
Online
479
#63
alaev #:
Система определения ботов безупречна.

Ну вот и разобрались :)


alaev #:
Проверить нельзя. Нужно верить! 😁

Да уж, пиарчик вышел с душком. 

Хотя я надеюсь Miki не в обиде за сеанс с разоблачением, получилось-таки собрать фокус группу и ему бесплатно протестировали его ПО. 


юни #:
Проблему могут вызвать человеконезависимые факторы, вроде возраста кук. А так задача вполне себе реализуема.

А разве софт может читать куки с чужого сайта? Считывать и оценивать свои - понятно. А чужие? По какому принципу?


sagamorr #:
Тема из накрутки ботами превратилась в обсуждение антибота, который судя по всему еще и не работает.

Привыкайте, тема накрутки и ботов всегда вызывает горячую полемику. Это тут ещё никто по-серьёзному ругаться друг с другом не начал :) 

А то, что удалось практически пощупать антибот Miki и получить ещё доп. отзывы - дело полезное. 

Антибот я думаю работает, просто не так как заявлено и как мы для себя ожидаем, а как автор его запланировал, но честно признаться и принять критику не хочет - выкручивается. Но это уже проблема не программная, а авторская.


sagamorr #:
Народ может пойдете в курилку этого антибота обсудите?

А какой совет вы хотите услышать? Все подобные темы, которые создаются здесь примерно раз в две недели обычно и останавливаются на выводах - учитесь крутить и решайте проблему опционально. Кто-то просто забивает и зачастую наплыв ботов сходит, кто-то экспериментирует с CF, кто-то обращается к накрутчикам. Так чем ещё вам помочь? По-моему все варианты уже озвучены.

√ SEO продвижение: поиск новых точек роста, экспертный аудит сайтов ( http://akazansky.ru/audit-sajtov ), внедрение эффективных решений цифрового маркетинга. Обстоятельно, ответственно, доступно.
S
На сайте с 12.10.2012
Offline
134
#64

Вот кстати 2 сайта-клона, ботовода который как я понимают своих ботов на других сайтах качает.

vuvozmusora com и vuvozmusora ru

Тот, что .com, зарегистрирован 24 августа этого года и сейчас уже в топ-1, топ-2 по всем самым конкурентным запросам в данной тематике.

Вот тебе и Яндекс со своими алгоритмами😀

Елена П.
На сайте с 02.10.2020
Offline
26
#65
Антоний Казанский #:
же Яндекс сейчас решить не может / не хочет. Там что слабей спецы

Судя по постоянным глюкам статистики, думается, что не особо и боги. Более того, то-ли нарочно, то-ли от великого ума не могли средний CPM подсчитать.  

alaev
На сайте с 18.11.2010
Offline
606
#66
Антоний Казанский #:
Это - да, и в общем-то прикрутить дополнительный шаг для разгадывания цветовой пятнашки каких-то серьёзных проблем я думаю не составит.

Ему это вариант уже тут на форуме продемонстрировали, кстати.

Антоний Казанский #:
Именно. Я уже давно об этом время от времени напоминаю. Яндекс изначально сделал перекос в учёте ПФ фактора. Это в принципе ненормальная ситуация, когда сигналы ПФ значимо перебивают любые отдельные и совокупные данные по релевантности. Соб-но, вся эта чехарда и началась с того, что формально любой визуальный говнокод можно закинуть в топы. Удержать правда потом непросто, но закинуть можно.

Эпоха наличия дешевых серверов и прокси просто подогоревают этот момент. Под Гугл ПФ не крутят, спамят ссылками страницы доноров)))

Антоний Казанский #:
Я думаю, что сами поисковики заинтересованы в этом.

Согласен.


юни #:

Не думаю, что здесь важен уровень кодеров. Важно знание технологий - стандарты HTML, стек TCP/IP, JS-обработка, особенности ОС и распространённых браузеров под ними.

Проблему могут вызвать человеконезависимые факторы, вроде возраста кук. А так задача вполне себе реализуема.

Это только в теории. На практике много только дизайнеров сайтов в фигме.

sagamorr #:
Тот, что .com, зарегистрирован 24 августа этого года и сейчас уже в топ-1, топ-2

И он под CloudFlare :)

Типичный говносайт, который затолкали ботами в Яндекс


Даже не потрудились сделать рерайт спам-страниц под города Подмосковья и станции метро в Москве.

И вот этот баг Яшка не фиксит года с 2018. Кучу однотипного контента, меняя лишь title и description, им загоняют в топ.

А те, которые не крутят, получают фильтр за некачественный контент, вот как бы прямым текстом намекают. Что уже тут не ясно? 😂

Создание и продвижение сайтов - https://alaev.net , аудиты сайтов, контекстная реклама
Антоний Казанский
На сайте с 12.04.2007
Online
479
#67
Елена П. #:
Судя по постоянным глюкам статистики, думается, что не особо и боги. Более того, то-ли нарочно, то-ли от великого ума не могли средний CPM подсчитать.  

А у них природа обновления данных порционная, поэтому всё зависит от того, когда, кем и в какой момент был сделан запрос на получение данных. 

Это ещё с эпохи масштабных текстовых и ТИЦ-евых апов пошло - когда с полуночи начиналось движение, потом в течение дня раскатывалось и за сутки - другие устаканивались результаты. Вас в тот период ещё на Серче не было, а старички помнят, как пользователи создавали темы и особо активные отписывались кому сколько плюсануло / минусануло. 

В Вебмастере у них теперь всегда уведомление висит, мол, извините, всегда обновляемся и данные могут быть нестабильны. На случай, если что, то мы как бы постоянно в процессе и за правдивость и полноту данных ответственности не несем. 

Brat_Sergij
На сайте с 26.11.2015
Offline
237
#68
Александр #:
Данный компьютер - компьютер супруги. Чистый, как слеза ребенка (в отношении разнообразных программ). Его, по идее, не должно было завернуть.

Либо вы вы что-то не до конца знаете о своей супруге))

юни
На сайте с 01.11.2005
Offline
878
#69
alaev #:
Это только в теории. На практике много только дизайнеров сайтов в фигме.

Понятное дело, что школота превалирует в любой не пыльной теме "с минимальными вложениями". Тех же прокси-ферм сейчас у кого только нет, решения "под ключ" давно и плотно поставлены на поток.

Но профессионализм здесь особый не требуется. Требуется эрудиция, достаточно широкая.

Так-то я пару лет назад спрашивал одного программиста (плотно занимавшегося автоматизацией (селениум и т.п.) и  добившегося неплохих результатов в т.ч. в накрутке), может ли он создать низкоуровневый драйвер под винду (XP-десятка), способный перехватывать сетевой трафик, идущий от физических устройств в ОС и обратно. Такой гибрид снифера и виртуальной сетевой карты.

Человек неделю ковырялся в спецификациях, создал несколько тем на профильных форумах, пообсуждал и в итоге отказался. Говорит, что нужен кто-то из разработчиков виртуальных машин, у них есть опыт. Или антивирусов, они тоже виртуальные адаптеры прописывают в систему. А конкретно под мои задачи вообще руками развёл.

На этом фоне понять, как браузеры обрабатывают различные антифрод-задумки, кажется не таким уж сложным. А уж бродилку "пустая страница -> поисковик -> запрос -> переход на сайт -> серфинг по внутренним -> завершение сессии" вообще можно делать тестовым заданием перед приёмом на работу.

Антоний Казанский #:
А разве софт может читать куки с чужого сайта?

Сейчас уже не вспомню, да я и не разработчик. Вроде всё зависит от разрешений сайта и браузера.

Но это же мелочь, которую можно проигнорировать или обойти. К примеру, собрать куки на своих ресурсах, размножить (исключив конфликтные и неправдоподобные варианты) и применить к накручиваемым сайтам.

https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит, https://a-parser.com/ - парсер для профессионалов SEO, маркетологов, арбитражников и SaaS
Антоний Казанский
На сайте с 12.04.2007
Online
479
#70
юни #:

Так-то я пару лет назад спрашивал одного программиста (плотно занимавшегося автоматизацией (селениум и т.п.) и  добившегося неплохих результатов в т.ч. в накрутке), может ли он создать низкоуровневый драйвер под винду (XP-десятка), способный перехватывать сетевой трафик, идущий от физических устройств в ОС и обратно. Такой гибрид снифера и виртуальной сетевой карты.

Человек неделю ковырялся в спецификациях, создал несколько тем на профильных форумах, пообсуждал и в итоге отказался. Говорит, что нужен кто-то из разработчиков виртуальных машин, у них есть опыт. Или антивирусов, они тоже виртуальные адаптеры прописывают в систему. А конкретно под мои задачи вообще руками развёл.

А это неудивительно. В программировании масса специализаций и чем глубже разработчик погружается в свою предметную область, тем сложнее ему переключаться на что-то другое. А когда это вообще сильно другие задачи, то становится понятно, что на разбор и изучение необходимого нового объёма информации уйдет слишком много времени - несоразмерно целесообразности оплаты.

Человек в принципе склонен работать в зоне комфорта и чем старше он становится, тем сложнее ему принять необходимость переключаться на что-то новое.

Я например и на себе это чувствую. Уходишь по необходимости в какую-то специализацию узких задач (например, поработать со скриптом для автоматизации), а потом тебе надо переключиться, допустим на маркетинговый анализ и тут ты в принципе понимаешь, что определённые задачи требует даже особого типа мышления. Это отдельная большая тема, о ней было интересно поговорить, но конечно не в формате данной ветки.


юни #:
На этом фоне понять, как браузеры обрабатывают различные антифрод-задумки, кажется не таким уж сложным. А уж бродилку "пустая страница -> поисковик -> запрос -> переход на сайт -> серфинг по внутренним -> завершение сессии" вообще можно делать тестовым заданием перед приёмом на работу.

В чистом виде - да, но когда при этом мы решаем какие-то дополнительные сторонние задачи и это связано с необходимой анонимностью (например), то это уже не просто следование по ссылкам. 


юни #:

Сейчас уже не вспомню, да я и не разработчик. Вроде всё зависит от разрешений сайта и браузера.

Но это же мелочь, которую можно проигнорировать или обойти. К примеру, собрать куки на своих ресурсах, размножить (исключив конфликтные и неправдоподобные варианты) и применить к накручиваемым сайтам.

Я несколько в другом контексте. Я развивал мысль, что вышеуказанный Антибот вряд ли может проанализировать сторонние куки.  

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий