https://devaka.ru/articles/pagespeed-insights
статья, которую вы цитируете, написана в 2017 году и содержит безответственные высказывания, сбивающие с толку малознающих людей..
Программа замечательная, слов нет. НО:
Наблюдение за скоростью загрузки страниц - это процесс постоянный. Соответственно, нуждающийся во временном компоненте и графическом изображении. То есть: необходимо наблюдать за страницами регулярно и, желательно, представлять результаты в виде диаграммы.
Эту задачу я, например, решаю с помощью импорта результатов опроса PageSpeed API в Google Sheets, передачей данных в Data Studio и отрисовки графика.
Было бы замечательно иметь такой функционал в программе. Будет абсолютно достаточно добавить две функции:
проект коммерческий. каноникалы сейчас это страницы типа "платье женское Hilfiger зелёное, размер 36", указывают и перелинкованы с "платье женское Hilfiger".
Целевые проиндексированы все и хорошо ранжируются. Но цель, естественно - быстрее, выше, сильнее - это на вопрос Keal. Поэтому, когда смениалсь СЕО-команда, встал вопрос о концептуальном развитии.
easywind, Гугл их уже склеил, практически все. Конкретный вопрос видимо вот в чём:
- оставить всё как есть и наращивать внутренние ссылки по этому же принципу,
- все canonical деиндексировать,
- все canonical редиректить на целевые
на молодых страницах особенно сказывается волатильность внешних ссылок. При потере одной сильной ссылки возможна сильная просадка - например по высокочастотному ключевику.
С возрастом, наращиванием линк-массы и количества ключевиков (как short head, так и long tail) потери будут быстрее возмещаться и не приведут к заметным прыжкам.
А как совпадают эти цифры с частотой обновления материалов? Имхо их неловко по отдельности рассматривать. У меня корреляция была чёткая, причём чем чаще публикации, тем чётче корреляция. На новостных-медийных сайтах так вообще практически без запаздывания.