Я выскажу непопулярную мысль, что недовольство на форуме по поводу поисковой выдачи работает только в одни ворота для очередной волны недовольства.
Сливинский на крайней Вебмастерской конкретно указал, что он непосредственно занимается вопросами качества выдачи и призывает присылать ему проблемные примеры, поэтому важно, чтобы данная информация была доведена и ещё лучше - получен ответ.
Тут понятно, что вышеуказанный абзац будет далее сопровождаться едкой иронией в духе, что в лучшем случае TC получит стандартную отписку, но другого доступного способа нет.
Либо мы ставим Яндекс в известность, либо это остаётся в формате междусобойчика.
Говорить такие вещи на Серче - это почти экстремизм :)
А если говорить серьёзно, то на всех рабочих проектах, где идёт неспешная, последовательная и вдумчивая работа - никаких перепадов нет. Умеренная поступательная поступательная динамика, новые посадочные страницы добавляют свою порцию трафика, всё как прогнозировалось, так себя и реализует.
Конечно, сайты нужно делать с полной ответственностью и конкурентным содержания для своей ЦА. Когда этот вопрос проработан, есть динамика результатов. Конечно не в ближайшие недели, а в течение месяцев.
Задача понятна.
Контрольные данные для старой версии вы уже можете зафиксировать за выбранный вами период.
"Мигать по-научному" я не вижу необходимости, переходите на альтернативную версию, замеряете её результаты в течение контрольного периода и сравниваете.
p.s. Может случиться так, что в альтернативной версии вы решите сократить содержимое выдаваемой информации, а в случае "мигания" фактическое содержания страницы для ПС будет меняться - это раз, и в случае обновления last-modified у вас постоянно будут меняться даты обновления, что окажет влияние на квоту и перераспределение приоритетов источников для переобхода страниц.
Для Гугла вариация с www и без www - разные сайты.
В остальном - сделайте то, что указал Vladimir SEO выше постом.
Успехом можно считать только закрепленный и систематически повторяемый результат.
Если результат ранжирования будет сохраняться в течение нескольких месяцев, тогда можно говорить о вероятных причинах.
Гугл будет ранжировать любой документ, который проиндексирует и не имеет ограничений в ранжировании.
Без сомнения, играет.
Поведенческих факторов.
То, что топовые сео агентства для отчётности могут демонстративно покупать ссылки, а потом в случае клиентской неоплаты снимать - это ни для кого не новость.
Для опытных сеошников очевидная правда в другом - ссылки они демонстрируют для отчётности, а результативность позиций они обеспечивают накруткой, которую в случае неоплаты также останавливают.
Заказчики думаю, что все дело в правильно купленных ссылках (ведь у них купить также эффективно не получается), а рабочий механизм совершенно в другом.
Потому что запросный спам - это маркер не абсолютный. Молодые сайты Яндекс может довольно быстро пессимизировать за переспам, а на прокаченных, трастовых сайтах спамные страницы могут высоко ранжироваться.
Отказ от использования ссылочных бирж не равно "бессылочность".
Есть и другие способы приобретения ссылок: крауд, аутрич, pbn сети.
Любые сервисы, которые предлагают арендные ссылки работают по одинаковому принципу.
Покупать ссылки имеет смысл на площадках, которые только начали продажу, либо ещё не заспамились.
Идеально те, что продают ограниченное кол-во своих страниц и размещают не более одной ссылки.
Именно поэтому сейчас более актуальны PBN сети, где есть жесткий лимит внешних ссылок и нет "миганий" (поставили-сняли), но здесь тоже не всё однозначно. В погоде за заработком и частные продавцы фактически сдают места ссылок в аренду.