Попробую поделиться своим видением, что же за зверь такой, этот Пингвин.
Я не СЕО-гуру, это лишь моё хобби от основной работы сисадмином, которое благодаря Гуглу меня неплохо кормит.
Стараюсь понять всё лишь на практике методом собственных проб и ошибок.
ГСы и молодые сайты фильтр обходит потому, что количество их анкорного текста для анализа ниже необходимого порога. Когда же в анкорном тексте, точные вхождения ключевиков составляют, например, больше 50%, чем анкорный текст бренда - налагается фильтр. Гугл не различает плохие ссылки от хороших в момент их индексации, он оперирует в данном аспекте только такими показателями, как:
1. Интенсивность индексируемых ссылок на ваш сайт.
Это время и количество. Тут скрыта формула, что у каждого сайта есть своя интенсивность. Например, 'сквозняк' с 50000 страниц или спам со 100500 сайтов на молодой сайт может сказаться негативно, в этом случае сработает автофильтр, но на старый трастовый сайт, на который ссылается например 5000 сайтов никак не повлияет. На мой взгляд всплески ссылок на сайт в пределах нормы его интенсивности влияют положительно. Отсутствие наращивания ссылочной массы влияет на сайт негативно лишь в том случае, когда у конкурентов она растет.
2. Количество входящих-исходящих ссылок на странице донора, передаваемый вес на сайт.
Многие из нас видели страницы, которые грузятся секунд по 30, на которых под 10000 спам-комментов лет 5 наполняются хрумерами и подобными 'инструментами'. Такие страницы просто выпадают из индекса при достижении определенного количества ссылок на внешние сайты или других внутренних факторов. Если страница еще не выпала из индекса, то после индексации ссылки на этой странице она считается рабочей, и, мизерно, но толкает сайт вверх по серпу. Гугл в данный момент не понимает, естественная она или нет. Он поймет это только тогда, когда произойдет полный анализ линк-скейпа, вердикт по которому выносит Пингвин. В день приговора все неестественные ссылки в глазах Гугла перестают учитываться.
Более глубокий анализ линк-скейпа невозможен даже с мощными ЦОДами Гугл. Если обрабатывать каждую страницу в вебе детально, Пингвин бы выходил раз в 5 лет. Даже сложно представить какие массивные слои данных Гугл обрабатывает в сутки.
Вы никогда не задумывались, что любое ключевое слово в анкоре отличное от бренда и которое повторяется определенное количество раз это чуть ли не единственный фактор неестественной ссылки для Гугла? Продвигаются не слова в анкоре, а тайтл и смежные ему запросы. Отсюда можно сказать, что Пингвин минует сайты у которых анкорный текст стоит из бренда на 60% и более. Процентные данные я привел в качестве примера, поскольку эту формулу знают только авторы Пингвина.
Но есть исключения, например, сайт имеет 500 ссылающихся на него доменов с прямыми вхождениями ключевых слов, и всего 100 ссылающихся сайтов с брендовым анкорным текстом, вроде бы подозрения в спаме на лицо, но после анализа выясняется что эти 100 сайтов передают веса гораздо больше, чем те 500 сайтов и фильтр обходит этот сайт. Поэтому очевидно, что Гугл смотрит не на количество, а на качество, общий вес передаваемый по анкорному тексту бренда.
Было же сказано, что будут наказываться только EMD ГС, которые висят в топе по этому ключевику. Таких ГС во всех нишах полно, которые отбирают траф у нормальных сайтов. Вполне разумное решение Гугла. Если же ваш EMD сайт качественный, вы не будете лишены никаких преимуществ. Фильтр EMD в Гугле начали вводить по большей степени не из-за ГС, а из-за того, что в следующем году будет открыты для регистрации почти 2 тысячи новых TLD. Сколько там EMD будет аж страшно представить )
http://www.enom.com/tlds/newtlds.aspx
Нашел интересный вывод для себя на одном из моих сайтов по продаже автомобилей в США. Ему всего полгода. Пока он молодой - поставил Adsense, чтобы окупал затраты на усовершенствование. Далее планируются другие более серьезные методы монетизации. Так вот, ниша довольно таки конкурентная, один из самых больших в данной тематике CPC 2-5$. Спустя полгода с момента запуска трафик достигает > 2000UV чисто с Гугл, доход > 100$ в сутки. Ссылочная масса сайта это ~100 лучших платных каталогов (2-50$), не тупо рег во всех подряд, а подбор именно страниц с максимальным весом для размещения и ~200 сайтов, в основном US чистых блогов и форумов, кросспостинг.
5 октября трафик падает в 3 раза. Я и не удивился, слишком вертикально график шёл )
4 ВЧ сдвинулись из Топ 1-3 в Топ 7-10. Это основной трафик. И пропал самый жирный СВЧ 300к запросов из топ 25 за 500.
Также замечаю в WMT, что ежедневный хвост всех ключевиков обрезался с 300-400 до 100-150.
Интересный факт. 4 ВЧ из этих 5 ключей я двигал исключительно каталогами стараясь в анкоре разместить имя сайта. А 1 СВЧ который улетел, я двигал кросспостингом с точным вхождением этого ключевика в анкор. Я знал, что в топ 10 я никогда не попаду по этому ключевому слову. И поскольку на этот 1 СВЧ не ссылалось ни одного нормального домена, вернее нормальной ссылки, он и вылетел, хотя до апа мой сайт по этому ключевому слову имел позиции от 20 до 30 среди очень трастовых 10-летних сайтов, благодаря прямым ссылкам, которые были либо в подписи на форуме либо в имени на блоге. Причем размещение этих ссылок анализировалось на предмет дофоллоу, авторитет страницы более 50 по SEOmoz'y (PR=>3) и исходящих внешних ссылок со страницы не более 50.
Из данного примера хочу поделиться мнением, что Пингвин это фильтр, который на основе полугодового анализа глобального линк-скейпа, обрезает от сайта все неестественные на взгляд Гугла ссылки. Следовательно после наложения данного фильтра, сайт резко теряет позиции по тем ключевым словам, которые продвигались исключительно ссылочным спамом. Ссылочным спамом является любой анкорный текст, который превышает 50% от анкорного текста имени домена сайта - wwwsite.ru, site, site.ru, http:/www.site.ru. (ИМХО)
Проанализируйте анкорный текст с помощью OpenSiteExplorer.org от SEOmoz'a. И взгляните на акорный текст самых авторитетных сайтов - вот к чему надо стремиться, чтобы не бояться следующих Пингвинов.
Я лично триалом уже почти год пользуюсь, каждый месяц его отменяю и завожу новый аккаунт, чтобы не платить по 100$ в мес.
P.S. Я удивлен, что многие в этой ветке хаят Гугл, мол Пингвины-Панды все надежды рушат.
Всё нормально, ГС-еров поубавится, трэша меньше будет. Упорные поумнее станут. Дорогу осилит идущий.
Ну а факты и причины очевидны всем, даже тем, кто удивляется, почему мой пушистый псевдо-СДЛ пострадал.
И вообще нормальные сайты не зависят от ПС...
Это ваш факт, но не гугла.
Еще раз говорю, что у гугла нет приоритетов в плане продвижения у всех globalTLD.
Забиваешь урл страницы в Opensiteexplorer.org и смотришь параметр PA это и есть вес (максимально приближенный, хоть гугл немного по-другому смотрит, лучше сервисов пока нет). Вес повышается ссылочной массой.
Я могу точно сказать, если сквозняк с анкором это "фильтр -50" по данному ключу из анкора. На собственных экспериментах исследовал.
Также гугл не любит длинные анкоры типа "My Website | Articles, Services, Tools etc."
Гугл смотрит на количество доменов ссылающихся по анкорным словам.
В Ahrefs есть такая фича Referring Domains for Anchor Terms, они первые её реализовали, и судя по всему, это полное зеркало, на то как смотрит гугл на анкоры.
Вообще идеальный вариант - двигать морду своими же внутренними страницами, т.е хорошей перелинковкой )
TLD значения в продвижении под Гугл не имеет...
Тайтлы и дескрипшины в дублях. Сама страница не оптимизирована под продвигаемые ключи.
-2% спад в En-US
От недели и до бесконечности. Продвижение каждого сайта индивидуально в своем роде.