- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как снизить ДРР до 4,38% и повысить продажи с помощью VK Рекламы
Для интернет-магазина инженерных систем
Мария Лосева
А как, они выдачу парсят, а не ваш сайт
Ранее, Дмитрий Алаев выкладывал скрин программы и там в настройках указанно - посещать сайты с метрикой и так далее. Не просканировав сайт, не получится понять, стоит метрика или нет. Так же, уже многие тут писали и у меня так же, если нарушаешь нормальный цикл посещения ботами твоего сайта, они стараются что то предпринять.
Например, блокируешь подсеть IP, через какое то время, прут из других подсетей, хотя до этого не перли. У меня новый сайт есть, на него тупо шли неделю с IPV6 и пока его не блокирнул других ботов не было. Как блокирнул, в логах даже этих заходов практически не осталось, но зато поперли всем известные боты. Как, не получив ответ сервера они могут понять, доступен для них сайт или нет. Я всего лишь задал вопрос знающим людям, так как может быть закрыть доступ для парсера программ накрутчиков - это самая простая защита.
+ Яндекс пишет "с вашим сайтом все в порядке", но в директе забанили... значит стало не все в порядке. Противоречат сами себе.
Со сроками выхода из под санкций, если они реально есть, действительно не понятно. Меня жахнуло в середине декабря. В середине января частично вернулись позиции, тогда и поставил блокировку на этих ботов - с тех пор статистика чистая. По идее позиции должны были продолжиться расти, а они опять упали в середине марта, причем так же сильно как и в декабре. Выходит, этих 2 месяцев без ботов в метрике не помогли. Я, конечно, тыкаю пальцем в небо, то переспам найду, то недоспам, думая что они причины, но по сути рост и падение совпадают с датами, когда бандит тосует выдачу, а делать он это начал в такой форме как раз после массовых атак ботов.
ЯНДЕКС - Но так же нельзя!
Беру метрику, смотрю источники, выделяю только роботов идущих из поисковиков, дабы понять что именно они там накручивают. Жму на вэбвизор и получаю :
"Текущий набор условий сегментации включает в себя условия, работающие с социально-демографическими характеристиками посетителей. В целях сохранения конфиденциальности, отображение отчетов с детализацией до уровня отдельных визитов и посетителей, сегментированных по социально-демографическим характеристикам, отключено."
И как нам защищаться, даже не зная чего там конкуренты нагуливают? Запрос то простой "Заход из поисковика + Робот".
Скорее всего, как такового нет парсера сайтов. Если стоит галочка с метрикой, все боты проверяют данное условие
Ну и как минимум, программ уже не одна, у всех разные условия применения
У меня такой вопрос. В любом случае, у программ накрутки есть парсеры, которые так или иначе "наблюдают за сайтом".
Нет.
Хороший бот с нагулянными фингерами имеет свои интересы, перечень устройств, геолокацию, подпадает под одну из категорий целевых аудиторий Яндекс - в общем, никак он не отличим от человека.
То же самое касается и парсеров. Даже банальные парсеры типа "Лягушки" могут эмулировать любого бота ПС. Сайт же ваш парсить для накруток смысла и вовсе нету, интереснее выдача с постоянными игроками, без примесей быстровыдачи.
Интересна только выдача Яндекс, как бы ни рвали тут свои анусы нубы с пораженной корой головного мозга.
Скорее всего, как такового нет парсера сайтов. Если стоит галочка с метрикой, все боты проверяют данное условие
Ну и как минимум, программ уже не одна, у всех разные условия применения
Да ботоводы у мегаиндекс или пр-ку закупают данные в любых обьёмах и отобранные как им нужно. А владельцы сайтов профаны сами же там и регистрируются да ещё свой сайт открывают для индексирования. 😆
в общем, никак он не отличим от человека.
То же самое касается и парсеров. Даже банальные парсеры типа "Лягушки" могут эмулировать любого бота ПС.
Любой браузер проверяеться только в путь.
На платформе селениум - бот.
На платформе SEF и не подписан гуглом - бот.
Самопис с питоном не умеющим в java - бот.
Зачем ты втираешь людям сказки я немогу понять?