Сложно сказать. По идее, не один из пунктов не смертельный. Вполне возможно, что фильтрануло за что-то другое. У меня сегодня тоже один из уже пониженных сайтов сполз ещё ниже. Вполне возможно что периодически происходит пересчёт индекса понижения. Если число отрицательных моментов понижающих сайт не уменьшается а наоборот увеличивается, то позиции будут продолжать страдать. Это только предположение.
Как правило, изменения вступают в силу до того, как обновится кеш сайта.
Очень маловероятно. Сейчас в выдаче действительно черте знает что творится. Новый алгоритм режет всё подряд, но общий код адсенсе и общий аккаунт в панеле вебмастера гугла скорей всего не при чём. У меня тоже сейчас по куче сайтов улетает каждый месяц, но некоторые, с таким же кодом и с того же гугл аккаунта наоборот поднимаются с каждой чисткой.
Войдёт. Это не фильтр. :)
Не удивительно. Ни строчки уникальной.
Судя по всему так и есть. Сейчас сижу, изучаю сайты конкурентов, которые не опустились в выдаче. Встречаются такие, где плотность выше 10%.
Скорей всего в новом алгоритме добавлена формула, через которую периодически пропускают все сайты. В ней учитываются такие характеристики как плотность ключей, количество возвратов, просмотров страниц, степень уникальности контента, количество информации и рекламы на странице итд. И индекс занижения сайт получает лишь при наборе определённого количества минусов. То есть, если скажем на сайте просматривается по 20 страниц, юзер сидит по 20 минут, нет полупустых страниц и рекламы, а практически весь контент уникальный, то плотностью ключа в 20 процентов не активирует процесс пессимизации. Ну а если страниц просматривается мало, текст не особо уникальный, да и по другим параметрам сайт не идеален, то и 5-6% достаточно, чтоб сайт получил свою чёрную метку и его вес при ранжировании умножался бы на число меньшее единицы.
Одно уже очевидно. Это никакой не фильтр. Это часть алгоритма. Фильтры бьют по сайту гораздо ощутимей. А здесь наблюдается именно небольшое занижение. Например по одному из высокочастотных (более 6 миллионов) довольно конкурентных запросов мой пессимизированный сайт стоит сейчас в топе на 5 месте, а раньше был на 1 месте.
Sower добавил 23.04.2011 в 03:22
Можно долго ждать... Если учесть, что изменения произошли только со старыми сайтами, видимо для такого понижения гуглу необходимо иметь такой объём информации, который собирается длительное время. Так что результаты будут видны не раньше чем через пол года. :)
Так что под лежачий камень вода не затекёт. :)
Как ни чего? Наполнением можно как раз таки и разбавить плотность. :)
У меня на всех улетевших сайтах не более 100-120 внутренних ссылок на страницах. У некоторых конкурентов, которые не потеряли позиции, внутренних ссылок гораздо больше чем на моих сайтах.
К тому же, на моём сайте, который не улетел, более 200 внутренних ссылок на каждой странице.
Sower добавил 22.04.2011 в 23:53
Есть предположение... берётся во внимание общая плотность ключевых слов по всему ресурсу. На моём не улетевшем сайте эта плотность самая низкая.
Тоже ни чего не меняю, но экспериментировать на новых сайтах уже начал. :)
Пошерстил сегодня реферы на ппц и обнаружил, что применно в то же время, как сайты ушли вниз, стал идти трафик с одних старых доров-профилей, запущенных 4 года назад. Не вооружённым взглядом видно что это даже не серый сайт, а классический не завуалированный дор, на котором полезной для пользователя информации - 0. Весь контент, это столбик поисковых запросов в том же порядке, как его выдала овертюра. Процент ключевика -20! И этот хлам подняла чудо панда, опустив нормальные сайты.
Если заставить новый сайт уже через месяц приносить траф, то проживёт без фильтра он не долго.
Не целесообразно нанимать "продвигателя" в первые пару месяцев.