Если сайты коммерческие, то сидеть тихонько и не дергаться.
Источник лидов автоматически записывается в аналитиксе, по рефереру. Можно более детально их разметить, через ЮТМ метки.
Когда настроите цель по отправке формы, то сможете смотреть, откуда были эти лиды.
Нет. Не так. Источник и так прописывается в GA.
Вам надо вызвать событие по onsubmit.
https://developers.google.com/analytics/devguides/collection/analyticsjs/events?hl=ru
В Метрике то же самое, тоже через reachGoal.
Делов на 30 минут, на самом деле.
Ну не зря же в большинстве СРА - холд не менее 1 недели. Зачастую этого времени хватает, чтобы сравнить источник со "средним по больнице" и сделать вывод.
Это не основная цель. Вот хороший, информативный и модерируемый форум может создать вокруг себя ядро, которое будет притягивать ЦА. Наблюдал такой подход. Судя по конверсии трафика из форума - у ребят все отлично.
Тот сайт, за которым я следил был сделан на поддомене. Стиль - обычный форум на Булке.
Ну тут уже от мастерства, рвения, желания.
Но форум должен быть живой. Мертвые форумы никому не нужны, ни аудитории, ни владельцу.
Есть. Под небольшие задачи - бесплатно.
Например, https://powerbi.microsoft.com/ru-ru/
Ну это элементарная задача, для GA.
Делаете отправку события, при успешном заполнении формы и ее отправке. В GA настраиваете цель, на это событие.
Готово. Смотрим отчеты по целям и получаем результат.
Ну так это же обычная инструкция, которую можно выполнять, а можно не выполнять.
Ни о какой защите здесь речи быть не может.
Единственное, что если роботы полсушают инструкцию, то это может снизить нагрузку на сервер, если сайт усиленно парсят.
Но для защиты - только сервером отбивать.
😂 Можно еще на сайте написать - "не капиравайце, пажалиста". Ну, для надежности. )))
Да невозможно так ничего защитить.
Хотите отбивать роботов-пауков-краулеров, то отбивайте их на уровне сервера по юзер-агенту.
Роботсом защищаться не то что глупо, а вовсе бессмысленно.
Очень похоже на паранойю. )))