valera-la

Рейтинг
8
Регистрация
25.03.2020
potapmec #:
У меня такой вопрос. В любом случае, у программ накрутки есть парсеры, которые так или иначе "наблюдают за сайтом".  
 Может проще вычислить эти парсеры и их забанинь, ну или редиректить? 

А как, они выдачу парсят, а не ваш сайт

Vladimir #:

- Есть такие, что ломятся и из реальной выдачи
- Одно не понятно, с чего рушится поисковый при чем сразу ( одновременно с ростом )

Ластклик же. С выдачи уже без разницы есть метрика, нет метрики

Delysid #:

https://searchengines.guru/ru/forum/1029854/page417#comment_16621939

О не, это не это было бы слишком просто)

Пока тема наполняется водой, вставлю свои сухие пять копеек. 

Словил проблему с ботами на сайте с ≈1200 уников в сутки из поиска. Резко вырос трафик по прямым заходам (≈700 в сутки). Через две недели трафик из поиска упал в два раза. В этот момент мы начали предпринимать меры. 

В начале отрубили показ метрики юзерам без реффера. Буквально через день боты пошли из закладочного трафика. Отрубили закладочный трафик, пошли по внутренним переходам. Переход внутренний, но визит первый 😂.

Далее шли длительные поиски вычисления ботов.  Одновременно с тем как мы научились скрывать метрику от ботов, без разницы откуда лезущих — траф из поиска обрубился еще ×2.

По прошествии недели отсутствия ботов в метрике, трафик ооочень медленно начинает восстанавливаться.

Выводы по блокировке ботов:
1. Есть смысл блокировать показ метрики, но не блокировать сайт.
2. Блокировка на клиенте работает точнее чем на стороне сервера.
3. На js выясняем бот ли это, если да то метрику не инициализируем.

Путём муторной траты времени на аналитику ботового трафика, выявили особенности которыми обладают только боты. Это позволило с нормальной точностью их вычислять (90-95%), не важно каким образом они подделывают переходы. Фишку в паблик сливать не буду, есть ощущение что ботоводы смогут её легко пофиксить. 

Повторюсь, сейчас трафик начинает восстанавливаться если тенденция продолжится — кейс можно будет считать позитивным, поделюсь результатами здесь.

Возможно эта инфа кому-то будет полезной. Тут в основном пишут что борьба с ботами результатов не даёт, но в моем случае кажется что смысл в этом есть. Но только в том случае, если боты не ломятся из реальной выдачи.

freesorgo #:

Если Ваш продукт нельзя купить локально в указанном городе (нет офф магазинов), но есть конкуренты именно с офф магазинами, то не имеет смысла так распыляться. Будет слив бюджета без заказов. Эффективнее делать две РК - Москва+мск область + СПБ+ Лен. облать и вся Россия минус первая РК.

Если Вы монополисты этого продукта (например, присадка bg109 ), то аналогично - две РК - все равно купят у Вас на сайте.

Тут не стоит вопрос будет слив или не будет, маркетинговая часть отработана в ручном режиме на 200 городах, вопрос в том, как удобнее мастшабировать это?

arbitrate #:
Подобные задачи решаются по-другому. Создаете всего 1 (или 12 РК по количеству часовых поясов) универсальную РК (вообще без городов, Яндекс и Google сами «учтут города», например, если юзер наберет в поиске «купить слона в Москве»). Далее, по мере необходимости, будете только добавлять Регионы показа.

Я в теме написал что в моём случае важно упоминание топонима в объявлениях. Как это сделать по вашей схеме? (никак)

Anamnado #:

интузазизьм сдуется когда Директ начнет отказывать из-за одинаковости сайтов. 

ждать долго не придется на 4-6 начнется... 

Сейчас в ручном режиме порядка в 200 городах работают рекламные кампании, проблем со стороны Директа нет. Миллионные бюджеты многое меняют.

Idonat #:
Как по вашему, топовые гиганты из разных индустрий создают по 1000 рекламных кампаний? Ответ на вопрос - нет. А вы хотите быть умнее их? Делайте как все делают, волшебных велосипедов в онлайн рекламе, SEO, программировании – нет.

Ну в целом волшебный велосипед есть — кодинг и выгрузка кампаний по АПИ. Это в любом случае сильно проще ручного варианта. Вопрос был в том, что есть ли еще проще варианты.