Рабочий код приведите и тогда никаких вопросов, потому как изначально
может быть следствий из написанного, в том числе разный контент для разных поисковиков.
Не раз убеждался в том, что SEO как зубная боль, очаг в одном месте, а отдает в другом.
Есть у меня ощущение, что помимо текстов есть еще какая-то значимая проблема на сайте и она не касается тех изменений, которые вы делаете. Добавлением текста вы лишь усиливаете тот признак который находится в корреляции с проблемным, но проблема вероятно не в тексте, а например в заспаме и дублировании TITLE заголовков (отвлеченный пример), или где-то внутренние дубли, которых вы не видите.
У меня как-то был пример, что сайт не рос потому, что в малозаметной части страницы был кусок текста отрерайченный на несколько сотен страниц. Как обнаружил, удалил - проблема решилась, но долго грешил совсем на другое.
Итого. Постарайтесь более обширно проверить кондиции и содержание сайта, мне кажется вы сконцентрировались не на том, где реальная проблема.---------- Добавлено 01.10.2018 в 16:05 ----------
Не надо с юзер-агентами поисковиков играться - это точно. Вообще нежелательно использование каких-либо коннотаций связанных с подменой контента.
Клоакинг
Как это точно работает я вам сказать не могу, я лично не разрабатывал эти алгоритмы.
Судя по всему по совокупности факторов критерии оценки качества страницы попадают в критическую зону и как только вы добавляете текст скорее всего фильтр реагирует в них на коммерческие вхождения и/или SEO маркеры.
У меня откровенно говоря не было таких случаев, чтобы после выхода из фильтра, добавление текста снова инициировало повторный фильтр. Здесь надо искать критическую точку - где она: в содержании, в оформлении, в последовательности когда - без конкретного примера сказать сложно.
Я бы на вашем месте пробовал бы выборочно сбрасывать индексацию на том товарном кластере, где происходит просадка по запросам и вариативно наращивал признаки.
На длительную перспективу всегда хороша полная переделка сайта с предварительным распилом бюджета :) :)
Но в реальности, чаще всего - есть сайт, есть минимальный зазор в действиях, давление начальства сверху и ноющая мигрень - "надо как-то решать" :)
Прям вот весь? :) Примеры.. :)
Да, исполняет и дописывает в кеш.
Да на здоровье, у нас тут речь о Яндексе и ББ фильтре :)
В настоящий момент Яндекс этот текст не видит.
Не переживайте так сильно, есть решение - оформлять текст через JavaScript escape.
Делаем так, идём сюда.
Далее кодированную последовательность вставляете вот в эту конструкцию
Браузер будет выводить
Далее подобным образом кодированный текст с помощью Javascipt кода размещаете там где вам надо :)
Усё, индексироваться не будет :)
Вы далеко не первые.
Типичная картина для роботизированной накрутки.
Бывает что планомерно бомбят по целевым.
В работе было два таких сайта.
Роботизированная накрутка.
Долбят с целью завалить поведенческие.
На то и расчет.
Да Гугл-Аналитикс в этом плане фильтрует эти заходы лучше.
Наиболее вероятный вариант. Проверяйте поисковую видимость сайта.
Потому что для нее это обычные отказные пользователи.
Если сайт удерживает результаты прежней видимости в поисковых системах, просто не тратить на это нервы.
Есть примеры, где сказывается напрямую. Если поведенческие в своем естественном трафике слабые, то да, то можно таким образом "подрезать" сайт.
Да, ПФ будет ухудшаться, все будет зависеть от совокупных результатов т.е. в зависимости зоны критических показателей.
Нелегко и не всякого, но влиять можно.
Публикуйте, интересно :)