в коде проверять наличие ненужных get-переменных в запрошенном url и выводить в секции <head> вместо обычного <meta name="robots" content ="index,follow"> (если он вообще есть) - запрет через <meta name="robots" content="noindex,follow"> Это решит вопрос и с Яндексом, и с Гуглом.robots.txt - не директива, а рекомендация, оба поисковика могут его игнорировать, если на страницы с параметрами где-то нарыли прямые ссылки (изнутри сайта или внешние). Clean-param работает только для Яндекса и далеко не всегда (хотя чаще работает).<link rel="canonical"> также рекомендация и Яндекс ее очень часто игнорирует по сочетанию прочих сигналов.
Поломалася главная страница. Вместо визитов те же просмотры показывает.
Много если при многофакторном анализе - это нормально :)
3к - траф достойный. И наверное 2-3-4 основные трафикогенерирующие страницы, и у каждой из них 100/100, и у всех страниц второго шага 100/100 ? Не только же главную измеряли, я уверен?
Тогда вопрос - а цель то какая конкретно была? Что бы буст был у остальных страниц, на которые трафа отродясь не бывало? :)
Буст будет, если есть трафик.
Если ускорение делается ДЛЯ того чтобы изначально подняться - естественно, ничего не будет. Ибо метрик нет.
Смотрим gpsi - у них в отчете real world метрики фигурируют. Если в отчете указано «нет данных для анализа», то синтетическое улучшение формальных метрик ничего не даст.
Ну а если вы одновременно с остальными мероприятиями сделаете и улучшение скорости - то и выделить эффект не сможете, просто порадуетесь, как хорошо остальные действия сработали.
Сработает синергия, но а чистом виде она не выделяема, если только вы не пытаетесь при Имеющемся трафе и прочих равных с конкурентом обойти его. И опять же, пока real world data будут накоплены и учтены, не моментально
Сокращение времени ожидания до первой отрисовки, размазывание нагрузки на устройство по времени и в ответ на пользовательские действия.
Визуально для пользователя почти ничего не поменяется, если запускать дозагрузку с минимальным забеганием. Просто будет меньше лаг при зашрузке и переходах между страницами.
А для аналитических систем типа GPSI это как раз то самое улучшение метрик, счет точно повысится.
Ну а в совокупности, с улучшением как синтетического счета, так и данных в реальном мире - получится прирост качества сайта для поисковика.
А lazy init для js в зависимости от скроллинга (тот же lazyload картинок, только для js элементов), сделать не судьба? Или таких плугинов не нашлось, а спрограммировать самому скрипт на 10 строчек не получается?
Реклама, не реклама... все решаемо.
Вот чего-чего, а сервисов подобного рода как грязи. Не 100% идентичных, но вполне себе рабочих и полезных.
https://www.bing.com/toolbox/keywords
https://keywordtool.io/
https://neilpatel.com/ubersuggest/
https://www.wordtracker.com/
https://kwfinder.com/
https://ru.semrush.com/features/keyword-research/
https://www.wordstream.com/keywords
https://serpstat.com/keyword-research/
https://seranking.com/keyword-suggestion-tool.html
https://keywordkeg.com/
Полезно почитать https://backlinko.com/keyword-research