Под фильтром три пациента - два мебельных магазина и одна строительная контора. Все получили хостовые санкции и просадки по позициям на 30-40 в среднем. Делали по трем вариантам.
1. Строительная контора - лично выпилил из текстов участки с бредятиной и приевшимися фразами (составил список фраз на первоочередное удаление прямо по тексту из анонса ББ). Попутно убирался переспам из метатегов. Каждую исправленную страницу отправлял на переобход в вэбмастере. Когда проработал все страницы с контентом - нажал заветную кнопку "Я все исправил". Сегодня ровно месяц, кнопка вновь доступна. Итоги - уже два дня сайт постепенно начал выходить из ямы, появились позиции в ТОП3, ТОП10. На данный момент порядка 11%. До фильтра показатели были на уровне 64%.
2. Мебельный каталог - попал под фильтр, в процессе проверки текстов на переспам и прочие прелести обнаружилось что тексты растащили. Было принято решение о полном закрытии текстов в <noindex>. К сожалению сайт попал в работу спустя две недели после строителей и в данный момент существенных сдвигов не обнаружено.
3. Мебельный магазин - тексты были переписаны. Кнопка "Я все исправил" - нажата. В данный момент позиции начали возвращаться, но крайне малыми темпами - 3-4%.
Пытался смотреть ТОП и анализировать контент у конкурентов, но после остановки кровотечения из глаз - отказался от этой идеи. Фильтр либо не работает, либо находится на этапе обучения и новые санкции будут применяться по усредненным показателям изменений за прошедшие пару месяцев.
Вы самостоятельно решили собственную проблему) Переезжайте и будет вам счастье.
з.ы. По поводу сервисов гугла и их же пузомерок - они никому не обязанны им соответствовать. Ни один из их сервисов не проходит их же Page speed и ничего страшного)
Теперь представьте какой нибудь чудосмартфон, у которого такой лендос вызовет чуть ли не подвисание. Как то люто долго выходит. Откуда такая нагрузка то?
1. Да, есть. Собственно тот который описан в справке - закрывает участки от индексации.
2. Каким образом скрытие чего-либо должно помочь странице удержаться в индексе если там мало полезного контента?
Подобное есть в топвизоре, но полностью автоматизировать не выйдет. Нужно разово пройти по всем ключам и задать целевые страницы. После этого при каждой проверке позиций он будет проверять и соответствие страницы в выдаче к целевой странице указанной вами.
Comparser умеет. Сканирует все страницы на их наличие в ПС. Потом можно посмотреть отдельные списки тех которые не попали в индекс, либо есть в индексе но уже отсутствуют на сайте.
Все время промахиваюсь по кнопочкам и "спасибо" жму)
По теме - для лендоса не надо покупать. Ставил на трех лендингах Let's Encrypt - все в порядке, все работает, пользователи видят заветные зеленые значки.
Неужели у вас все так прилизано на сайте что нечем больше заняться? Ботам, роботам и прочей бездушной технике абсолютно параллельно есть у вас "мусорный" код или нет, матюкает ли его валидатор или все проходит без сучка и задоринки. Если лишний код и является каким либо фактором, то крайне несущественным. Был и есть в работе довольно немаленький сайт с каталогом на 2000+ товаров. Изначально каждому <div> были прописаны стили прямо в html. Сделали контрольные срезы, вынесли все стили в CSS - за следующий месяц еще три среза сделали. Разницы 0. В скорости загрузки разница на уровне статистической погрешности.
И в какой ОС работать, и модель процессора тоже имеет значение, ну и чтобы ОС лицензионная, обязательно активированная.
Расстраиваете ТСа.. Он то думал что нашел метод баблишка срубить по-легкому.
Всегда с новыми клиентами так поступаем. Текст в jpg средненького качества + водяными знаками диагонально застилаем. Для ознакомления и проверки - более чем достаточно. Поступила оплата - отправили архив с текстом + скринами проверки.