Так разве речь обо мне? Мы обсуждаем рабочую ситуацию в сотрудничестве со студией.
Но на вопрос отвечу. Крутить конечно умею, иногда это приходится использовать, когда в топе жесткая конкуренция и без стимуляции поведенческих нужные запросы просто не растут.
Но! Я не выделаю это отдельной услугой, не занимаюсь только накруткой, работаю точечно по конверсиям, а не на массе заходов с банальной накачкой CTR. Я всегда начинаю с задач модернизации сайта и прорабатываю десятки конкурентных решений. Если я понимаю, что клиент не хочет, не готов заниматься маркетинговыми задачами, я просто не берусь за исполнение.
Мне в первую очередь интересно заниматься развитием бизнеса. А к чему ведет просто упрямая накрутка ПФ без работы над сайтом, хорошо понимаю и знаю.
Итого. Накрутку ПФ в отдельную услугу не выделяю, не тарифицирую и с нежелающими развивать сайт в интересах ЦА не работаю принципиально.
p.s. В метрике конечно всё фиксируется, иначе невозможно посчитать целевые конверсии.
Как может checkmy.ru показывать ответ отличный от (реального?) остальных?
Ну как сторонний сервис может криво обрабатывать запросы? Ну вот может и всё.. проблема конкретного сервиса (похоже какие-то проблемы с обработкой адресов , где присутствует амперсанд).
Он вам на рабочий адрес https://www.trafaret.net/?id=147&lang=ru тоже показывает 404-ую ошибку.
Используете другой сервис, например Bertal и работаете дальше.
Так, допустим.
И в том числе ссылочную массу, и скорее не первое, но это частности.
Ссылочную массу - да, будут анализировать.
А вот здесь - стоп. Пожалуйста не путайте. Это разные вещи, ПФ-ПФ-ами, ссылки - ссылками.
Независимо от ссылочной массы (анализируемого сайта и конкурентов) вопрос по ПФ будет решаться.
Их не надо смешивать.
Выше уже говорил. Есть прогнозируемая область данных (когда рабочие данные можно получить и проанализировать), а есть непрогнозируемая (когда данные получить невозможно). И здесь неважно, что эту задачу выполнять и за сколько денег.
Если контора крутит и по результату фильтр, значит крутить не умеет.
Кроме ПФ и ссылок выполняется ещё множество различных задач по исправлению ошибок и модернизации сайта.
Нет.
Увидеть можно много чего. Вопрос - стоит ли это принимать как руководство к действию.
При желании можно конечно и все адреса страниц назвать порядковой нумерацией: 1.html, 2.html, 3.html и т.д.
Если у вас ИМ состоит из одной категории и более нет никаких вложенностей, то в принципе имеет.
Про плюсы я вам написал - если у вас несколько или даже полтора десятка однотипных товаров, то новые сущности вам не нужны.
А вот минусов, если это большой магазин, можно перечислять длинным списком. Самый главный - полная неразбериха, какой товар к чему относится, с чем группируется и т.д.
При второй части цикла (при целевом заходе) - это всегда поисковый запрос и на вашем сайте его уже не будет (если вы не выступаете в качестве человека, который старается стимулировать себе ПФ результаты).
Во всех других случаях - это нагул. И он - да, может быть (и чаще всего) прямой, может также идти через директ.
Об этом я написал во второй части предложения, а в этой - я имел ввиду, что вручную часто блокируемые сети наверняка тоже рассматриваются как серые.
На новых - да, но свершенное действие - уже история, а историю можно (и в определённой степени) нужно анализировать.
А вот это, пожалуй, самый интересный вопрос.
Какие данные собирает CF сервис после прохождения капчи - это действительно интересно. Никто не встречал разъяснительных материалов на эту тему?
Не вижу повода не согласится, однако как уже сказал, пока пользователь не начал отправлять post данные, анализировать кроме формальных технических данных особо нечего.
Я про это и говорю, что помимо фактических технических данных, которые доступны из протокола, сервисы типа CF используют свою историю (cвою аналитическую базу). И если в их базе большая часть заходов из отдельной AS имела большую часть отказов, то сервис помечает выбранную подсеть как серую и на старте направляет заходы из этой сети на капчу. Если процент прохождений капчи не растёт, то данная посеть так и остаётся в перечне серых.
Т.е. условная Битерика будет натыкаться на 100% капчу не потому, что мы про неё знаем из наших обсуждений на форуме, а потому что как раз пользователи сервиса её чаще всего блокируют и прохождение капчи там наверняка самый маленький процент.
А заходя с IP-шника домашнего провайдера CF знает про подсеть этого провайдера, что процент прохождения капчи там высокий, следовательно, нет необходимости каждый раз обрабатывать эти заходы через капчу.
Своего рода обучение, где белые подсети, а где серые.
Думаю, что скорее всего это работает так. Ибо логично и вполне резонно.
Ммм.. смотрите.
Есть принципиально две различные стадии.
1) Стадия нагула - т.е. сбор куков и здесь накрутчику принципиально важно, чтобы был счётчик Яндекса.
Это могут быть прямые заходы, поисковые, реферальные.
Чаще всего прямые, потому что они избавляют от необходимости упираться в капчу Яндекса.
Поисковые конечно тоже используются, но позднее, когда профиль собран и уже необходимым образом "прогрет".
2) Стадия целевого захода, когда для эффективности накрутки важно использовать целевой поисковый запрос.
Вы сейчас про первое или про второе?
Хорошо, давайте поразмышляем, как это практически можно было применить.
Давайте с конца.
Поведение мы можем проанализировать лишь постфактум. Т.е. получив первую пачку get/post запросов мы можем анализировать лишь заголовки, выполнить js проверки - всё.
Следовательно, на старте получив запрос от отдельного IP мы ничего не знаем про этого потенциального бота или пользователя.
СF, используя свою накопленную базу, может автоматически пропускать живого пользователя, а предположительного бота втыкать в капчу. Но это решение не на основе последующих данных, это решение на основе собранной статистики по отдельным случаям AS.
Проверка выполняет до загрузки Метрики, поэтому если бот проверку не проходит, то он не попадает в Метрику и не получит куку Яндекса с этого сайта.