- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Я думаю, что сами поисковики заинтересованы в этом. Возможность форсировать результаты притягивают многих и это огромный массовый спрос. Думаю, они нацелено создавали эту возможность, чтобы сформировать доп. рынки и управлять ими. Примерно так же как разработчики антивирусного ПО делают вбросы новых вирусов, а потом сами же пишут обновления для их нейтрализации для стимулирования продаж.
Не поисковики, а только Яндекс не фильтрует всех этих ботов и использует ПФ как чуть ли не единственный критерий ранжирования. Не думаю, что они этим самым хотят сформировать доп. рынки и управлять ими 😂
Тут они скорее только о заработке своем заботятся, половину бюджетов директа боты скликивают. А тут отфильтруешь всех ботов и заработок с директа на половину просядет.
Система определения ботов безупречна.
Ну вот и разобрались :)
Проверить нельзя. Нужно верить! 😁
Да уж, пиарчик вышел с душком.
Хотя я надеюсь Miki не в обиде за сеанс с разоблачением, получилось-таки собрать фокус группу и ему бесплатно протестировали его ПО.
Проблему могут вызвать человеконезависимые факторы, вроде возраста кук. А так задача вполне себе реализуема.
А разве софт может читать куки с чужого сайта? Считывать и оценивать свои - понятно. А чужие? По какому принципу?
Тема из накрутки ботами превратилась в обсуждение антибота, который судя по всему еще и не работает.
Привыкайте, тема накрутки и ботов всегда вызывает горячую полемику. Это тут ещё никто по-серьёзному ругаться друг с другом не начал :)
А то, что удалось практически пощупать антибот Miki и получить ещё доп. отзывы - дело полезное.
Антибот я думаю работает, просто не так как заявлено и как мы для себя ожидаем, а как автор его запланировал, но честно признаться и принять критику не хочет - выкручивается. Но это уже проблема не программная, а авторская.
Народ может пойдете в курилку этого антибота обсудите?
А какой совет вы хотите услышать? Все подобные темы, которые создаются здесь примерно раз в две недели обычно и останавливаются на выводах - учитесь крутить и решайте проблему опционально. Кто-то просто забивает и зачастую наплыв ботов сходит, кто-то экспериментирует с CF, кто-то обращается к накрутчикам. Так чем ещё вам помочь? По-моему все варианты уже озвучены.
Вот кстати 2 сайта-клона, ботовода который как я понимают своих ботов на других сайтах качает.
vuvozmusora com и vuvozmusora ru
Тот, что .com, зарегистрирован 24 августа этого года и сейчас уже в топ-1, топ-2 по всем самым конкурентным запросам в данной тематике.
Вот тебе и Яндекс со своими алгоритмами😀
же Яндекс сейчас решить не может / не хочет. Там что слабей спецы
Судя по постоянным глюкам статистики, думается, что не особо и боги. Более того, то-ли нарочно, то-ли от великого ума не могли средний CPM подсчитать.
Это - да, и в общем-то прикрутить дополнительный шаг для разгадывания цветовой пятнашки каких-то серьёзных проблем я думаю не составит.
Ему это вариант уже тут на форуме продемонстрировали, кстати.
Именно. Я уже давно об этом время от времени напоминаю. Яндекс изначально сделал перекос в учёте ПФ фактора. Это в принципе ненормальная ситуация, когда сигналы ПФ значимо перебивают любые отдельные и совокупные данные по релевантности. Соб-но, вся эта чехарда и началась с того, что формально любой визуальный говнокод можно закинуть в топы. Удержать правда потом непросто, но закинуть можно.
Эпоха наличия дешевых серверов и прокси просто подогоревают этот момент. Под Гугл ПФ не крутят, спамят ссылками страницы доноров)))
Я думаю, что сами поисковики заинтересованы в этом.
Согласен.
Не думаю, что здесь важен уровень кодеров. Важно знание технологий - стандарты HTML, стек TCP/IP, JS-обработка, особенности ОС и распространённых браузеров под ними.
Проблему могут вызвать человеконезависимые факторы, вроде возраста кук. А так задача вполне себе реализуема.
Это только в теории. На практике много только дизайнеров сайтов в фигме.
Тот, что .com, зарегистрирован 24 августа этого года и сейчас уже в топ-1, топ-2
И он под CloudFlare :)
Типичный говносайт, который затолкали ботами в Яндекс
Даже не потрудились сделать рерайт спам-страниц под города Подмосковья и станции метро в Москве.
И вот этот баг Яшка не фиксит года с 2018. Кучу однотипного контента, меняя лишь title и description, им загоняют в топ.
А те, которые не крутят, получают фильтр за некачественный контент, вот как бы прямым текстом намекают. Что уже тут не ясно? 😂
Судя по постоянным глюкам статистики, думается, что не особо и боги. Более того, то-ли нарочно, то-ли от великого ума не могли средний CPM подсчитать.
А у них природа обновления данных порционная, поэтому всё зависит от того, когда, кем и в какой момент был сделан запрос на получение данных.
Это ещё с эпохи масштабных текстовых и ТИЦ-евых апов пошло - когда с полуночи начиналось движение, потом в течение дня раскатывалось и за сутки - другие устаканивались результаты. Вас в тот период ещё на Серче не было, а старички помнят, как пользователи создавали темы и особо активные отписывались кому сколько плюсануло / минусануло.
В Вебмастере у них теперь всегда уведомление висит, мол, извините, всегда обновляемся и данные могут быть нестабильны. На случай, если что, то мы как бы постоянно в процессе и за правдивость и полноту данных ответственности не несем.
Данный компьютер - компьютер супруги. Чистый, как слеза ребенка (в отношении разнообразных программ). Его, по идее, не должно было завернуть.
Либо вы вы что-то не до конца знаете о своей супруге))
Это только в теории. На практике много только дизайнеров сайтов в фигме.
Понятное дело, что школота превалирует в любой не пыльной теме "с минимальными вложениями". Тех же прокси-ферм сейчас у кого только нет, решения "под ключ" давно и плотно поставлены на поток.
Но профессионализм здесь особый не требуется. Требуется эрудиция, достаточно широкая.
Так-то я пару лет назад спрашивал одного программиста (плотно занимавшегося автоматизацией (селениум и т.п.) и добившегося неплохих результатов в т.ч. в накрутке), может ли он создать низкоуровневый драйвер под винду (XP-десятка), способный перехватывать сетевой трафик, идущий от физических устройств в ОС и обратно. Такой гибрид снифера и виртуальной сетевой карты.
Человек неделю ковырялся в спецификациях, создал несколько тем на профильных форумах, пообсуждал и в итоге отказался. Говорит, что нужен кто-то из разработчиков виртуальных машин, у них есть опыт. Или антивирусов, они тоже виртуальные адаптеры прописывают в систему. А конкретно под мои задачи вообще руками развёл.
На этом фоне понять, как браузеры обрабатывают различные антифрод-задумки, кажется не таким уж сложным. А уж бродилку "пустая страница -> поисковик -> запрос -> переход на сайт -> серфинг по внутренним -> завершение сессии" вообще можно делать тестовым заданием перед приёмом на работу.
А разве софт может читать куки с чужого сайта?
Сейчас уже не вспомню, да я и не разработчик. Вроде всё зависит от разрешений сайта и браузера.
Но это же мелочь, которую можно проигнорировать или обойти. К примеру, собрать куки на своих ресурсах, размножить (исключив конфликтные и неправдоподобные варианты) и применить к накручиваемым сайтам.
Так-то я пару лет назад спрашивал одного программиста (плотно занимавшегося автоматизацией (селениум и т.п.) и добившегося неплохих результатов в т.ч. в накрутке), может ли он создать низкоуровневый драйвер под винду (XP-десятка), способный перехватывать сетевой трафик, идущий от физических устройств в ОС и обратно. Такой гибрид снифера и виртуальной сетевой карты.
Человек неделю ковырялся в спецификациях, создал несколько тем на профильных форумах, пообсуждал и в итоге отказался. Говорит, что нужен кто-то из разработчиков виртуальных машин, у них есть опыт. Или антивирусов, они тоже виртуальные адаптеры прописывают в систему. А конкретно под мои задачи вообще руками развёл.
А это неудивительно. В программировании масса специализаций и чем глубже разработчик погружается в свою предметную область, тем сложнее ему переключаться на что-то другое. А когда это вообще сильно другие задачи, то становится понятно, что на разбор и изучение необходимого нового объёма информации уйдет слишком много времени - несоразмерно целесообразности оплаты.
Человек в принципе склонен работать в зоне комфорта и чем старше он становится, тем сложнее ему принять необходимость переключаться на что-то новое.
Я например и на себе это чувствую. Уходишь по необходимости в какую-то специализацию узких задач (например, поработать со скриптом для автоматизации), а потом тебе надо переключиться, допустим на маркетинговый анализ и тут ты в принципе понимаешь, что определённые задачи требует даже особого типа мышления. Это отдельная большая тема, о ней было интересно поговорить, но конечно не в формате данной ветки.
На этом фоне понять, как браузеры обрабатывают различные антифрод-задумки, кажется не таким уж сложным. А уж бродилку "пустая страница -> поисковик -> запрос -> переход на сайт -> серфинг по внутренним -> завершение сессии" вообще можно делать тестовым заданием перед приёмом на работу.
В чистом виде - да, но когда при этом мы решаем какие-то дополнительные сторонние задачи и это связано с необходимой анонимностью (например), то это уже не просто следование по ссылкам.
Сейчас уже не вспомню, да я и не разработчик. Вроде всё зависит от разрешений сайта и браузера.
Но это же мелочь, которую можно проигнорировать или обойти. К примеру, собрать куки на своих ресурсах, размножить (исключив конфликтные и неправдоподобные варианты) и применить к накручиваемым сайтам.
Я несколько в другом контексте. Я развивал мысль, что вышеуказанный Антибот вряд ли может проанализировать сторонние куки.
Читал читал и рекламный флуд и приверженцев закрыть- убить-забанить ботов.
Кажется вот все здесь профи, а думать .... или не научились или надоело, бабло мозг заглушил, или притворяются и искренне верят в то, что они на 8 страницах начирикали - это есть истина и их знания
Фигня собачья: закрывать, убивать, антибот ставить (дурь редкостная), фильтры настраивать и прочее. Вы ищите проблему в накрутчиках, но дело не только в них. Вы голову включите. Ботов могут посылать и ПС, чтобы расчеты алго были более "чистыми" в оценках. Или вы думаете, что все боты помечены "яндекс-бот" - давайте знакомиться?
Вы же кормите псевдо спецов, у которых неконтролируемый словесный рекламный флуд. Хоть кто-нибудь показал сайт и запросы, где его свалил ботовый траф, а после установки антибота или запрета ботов, он влетел в топ1 без лишних движений? НЕТ. Значит все разговоры - болтавня.
Если так бесит "левый" траф и наличие ботов, то любые действия в блокировки оных, могут привести как раз к обратному - сайт будет постепенно выпадать из выдачи.
Снайперы учатся стрелять в тире, поисковики используют своих ботов так же в обучении своих алгоритмов.
Лет 15 назад наличие ботов никого не смущало, вы из просто не замечали. Сегодня все вступили добровольцами в войну против ботов. Вы кормите дураков с их прогами и флудеров с их узкими знаниями.
У меня все сайты, которые в работе, сидят в топе, хотя и наблюдаю иногда и ботовый трафик, который НИКАК мне не мешает.
Делайте выводы, меняются правила игры и правила работы с ПС.