И снова на Серче теории заговора... Все же просто, схема очевидная
1. Все, кто посещал сайт через мобильного оператора, посчитаны и учтены мобильным оператором.
2. Все кто звонил с сотового на номера компании, посчитаны и учетны мобильным оператором
3. У всей большой тройки (Билайн, МТС, Мегафон) есть сервисы "Имярек Маркетолог" (5 секунд Гугла)
В рамках этих сервисов уже через сутки после события по фильтру сайтов конкурентов, номеров конкурентов можно получить выборку всех посетителей их сайтов и/или звонивших на их номера.
Соответственно, можно обзвон устроить и перехватить лид.
Большинство контор, работающих на теме продажи лидов, действуют именно по этой схеме - выкуп базы пользователей, обзвон (роботом или оператором) и перехват лида с последующей продажей заказчику готовых теплых лидов, перехваченных плюшкой у конкурента.
Ну баян же... И не нужно никаких сливов данных из браузеров, счетчиков Метрик и прочей аналитики...
в коде проверять наличие ненужных get-переменных в запрошенном url и выводить в секции <head> вместо обычного <meta name="robots" content ="index,follow"> (если он вообще есть) - запрет через <meta name="robots" content="noindex,follow"> Это решит вопрос и с Яндексом, и с Гуглом.robots.txt - не директива, а рекомендация, оба поисковика могут его игнорировать, если на страницы с параметрами где-то нарыли прямые ссылки (изнутри сайта или внешние). Clean-param работает только для Яндекса и далеко не всегда (хотя чаще работает).<link rel="canonical"> также рекомендация и Яндекс ее очень часто игнорирует по сочетанию прочих сигналов.
Поломалася главная страница. Вместо визитов те же просмотры показывает.
Много если при многофакторном анализе - это нормально :)
3к - траф достойный. И наверное 2-3-4 основные трафикогенерирующие страницы, и у каждой из них 100/100, и у всех страниц второго шага 100/100 ? Не только же главную измеряли, я уверен?
Тогда вопрос - а цель то какая конкретно была? Что бы буст был у остальных страниц, на которые трафа отродясь не бывало? :)
Буст будет, если есть трафик.
Если ускорение делается ДЛЯ того чтобы изначально подняться - естественно, ничего не будет. Ибо метрик нет.
Смотрим gpsi - у них в отчете real world метрики фигурируют. Если в отчете указано «нет данных для анализа», то синтетическое улучшение формальных метрик ничего не даст.
Ну а если вы одновременно с остальными мероприятиями сделаете и улучшение скорости - то и выделить эффект не сможете, просто порадуетесь, как хорошо остальные действия сработали.
Сработает синергия, но а чистом виде она не выделяема, если только вы не пытаетесь при Имеющемся трафе и прочих равных с конкурентом обойти его. И опять же, пока real world data будут накоплены и учтены, не моментально
Сокращение времени ожидания до первой отрисовки, размазывание нагрузки на устройство по времени и в ответ на пользовательские действия.
Визуально для пользователя почти ничего не поменяется, если запускать дозагрузку с минимальным забеганием. Просто будет меньше лаг при зашрузке и переходах между страницами.
А для аналитических систем типа GPSI это как раз то самое улучшение метрик, счет точно повысится.
Ну а в совокупности, с улучшением как синтетического счета, так и данных в реальном мире - получится прирост качества сайта для поисковика.
А lazy init для js в зависимости от скроллинга (тот же lazyload картинок, только для js элементов), сделать не судьба? Или таких плугинов не нашлось, а спрограммировать самому скрипт на 10 строчек не получается?
Реклама, не реклама... все решаемо.