Sower

Sower
Рейтинг
659
Регистрация
30.12.2009

Сложно сказать. По идее, не один из пунктов не смертельный. Вполне возможно, что фильтрануло за что-то другое. У меня сегодня тоже один из уже пониженных сайтов сполз ещё ниже. Вполне возможно что периодически происходит пересчёт индекса понижения. Если число отрицательных моментов понижающих сайт не уменьшается а наоборот увеличивается, то позиции будут продолжать страдать. Это только предположение.

Как правило, изменения вступают в силу до того, как обновится кеш сайта.

Amfitoz:
единственное что приходит в голову это по коду adsense все сайты фильтрануло

Очень маловероятно. Сейчас в выдаче действительно черте знает что творится. Новый алгоритм режет всё подряд, но общий код адсенсе и общий аккаунт в панеле вебмастера гугла скорей всего не при чём. У меня тоже сейчас по куче сайтов улетает каждый месяц, но некоторые, с таким же кодом и с того же гугл аккаунта наоборот поднимаются с каждой чисткой.

surjan:
Есть домен, который не использовался, и на нем были страницы с копипастом, закинул чтобы что-то было.
Сейчас сервис показывает:
Всего страниц в Google - 1,350
В основной выдаче Google - 1
В supplemental выдаче Google - 1349 (99.9%)

Сейчас мне это домен понадобился. Все что на нем есть сейчас, все снесу и залью новый сайт с новым контентом. Вопрос в том, что войдет ли новый сайт с нормальным контентом в выдачу, или это какой-то фильтр, и лучше заливать на новый домен.

Войдёт. Это не фильтр. :)

torai:
http://www.heroturko.org/ с вчерашнего дня под фильтром, вот так вот.

Не удивительно. Ни строчки уникальной.

XPraptor:
Если только как один из факторов в определенной ветви алго.

Судя по всему так и есть. Сейчас сижу, изучаю сайты конкурентов, которые не опустились в выдаче. Встречаются такие, где плотность выше 10%.

Скорей всего в новом алгоритме добавлена формула, через которую периодически пропускают все сайты. В ней учитываются такие характеристики как плотность ключей, количество возвратов, просмотров страниц, степень уникальности контента, количество информации и рекламы на странице итд. И индекс занижения сайт получает лишь при наборе определённого количества минусов. То есть, если скажем на сайте просматривается по 20 страниц, юзер сидит по 20 минут, нет полупустых страниц и рекламы, а практически весь контент уникальный, то плотностью ключа в 20 процентов не активирует процесс пессимизации. Ну а если страниц просматривается мало, текст не особо уникальный, да и по другим параметрам сайт не идеален, то и 5-6% достаточно, чтоб сайт получил свою чёрную метку и его вес при ранжировании умножался бы на число меньшее единицы.

Одно уже очевидно. Это никакой не фильтр. Это часть алгоритма. Фильтры бьют по сайту гораздо ощутимей. А здесь наблюдается именно небольшое занижение. Например по одному из высокочастотных (более 6 миллионов) довольно конкурентных запросов мой пессимизированный сайт стоит сейчас в топе на 5 месте, а раньше был на 1 месте.

Sower добавил 23.04.2011 в 03:22

Бабайка:
:) с нетерпением жду Ваших впечатлений об экспериментах..

Можно долго ждать... Если учесть, что изменения произошли только со старыми сайтами, видимо для такого понижения гуглу необходимо иметь такой объём информации, который собирается длительное время. Так что результаты будут видны не раньше чем через пол года. :)

Так что под лежачий камень вода не затекёт. :)

Бабайка:
:) с нетерпением жду Ваших впечатлений об экспериментах.. ничего не предпринимаю пока что кроме наполнения контентом.. ☝

Как ни чего? Наполнением можно как раз таки и разбавить плотность. :)

admas:
Может быть одной из причин ? (у меня по 40 внутренних ссылок на странице)

У меня на всех улетевших сайтах не более 100-120 внутренних ссылок на страницах. У некоторых конкурентов, которые не потеряли позиции, внутренних ссылок гораздо больше чем на моих сайтах.

К тому же, на моём сайте, который не улетел, более 200 внутренних ссылок на каждой странице.

Sower добавил 22.04.2011 в 23:53

fed:
Тоже обратил на это внимание. Учитывая, что один мой сайт, который не попал под фильтр, с низкой плотностью ключей.

Есть предположение... берётся во внимание общая плотность ключевых слов по всему ресурсу. На моём не улетевшем сайте эта плотность самая низкая.

fed:
Т.к. "гугл учит терпению" :-) пока ничего не меняю, ну а потом буду экспериментировать (от безысходности)

Тоже ни чего не меняю, но экспериментировать на новых сайтах уже начал. :)

Пошерстил сегодня реферы на ппц и обнаружил, что применно в то же время, как сайты ушли вниз, стал идти трафик с одних старых доров-профилей, запущенных 4 года назад. Не вооружённым взглядом видно что это даже не серый сайт, а классический не завуалированный дор, на котором полезной для пользователя информации - 0. Весь контент, это столбик поисковых запросов в том же порядке, как его выдала овертюра. Процент ключевика -20! И этот хлам подняла чудо панда, опустив нормальные сайты.

Ganzy:

Подскажите пожалуйста за месяц жизни и продвижения сайта должен был уже появиться небольшой траф или все же слова сеошника правда и за месяц вообще никакого трафа по продвигаемым запросам ожидать не стоит?

Если заставить новый сайт уже через месяц приносить траф, то проживёт без фильтра он не долго.

Не целесообразно нанимать "продвигателя" в первые пару месяцев.

Всего: 7889