Тогда давай рассмотрим такой пример:
Продвигается сайт - морда по ключу "розовые слоны"
Внутренняя страница по ключу "доставка розовых слонов", тайтлы соответствующие у страниц(как минимум содержат точное вхождение продвигаемого ключа).
Каким анкором и на какую страницу нужно ссылаться если мы хотим продвинуть:
а) морду
б) внутряк
Исключительно предположение, проверить можно будет, когда Ап-нется Пингвин. Ясно же что сейчас Гугл реагирует только на внутреннюю структуру сайта(смена текста, перелинковка, тайтлы), а вот любые изменение во внешнем ссылочном никак не влияют на пораженные сайты.
Я вообще категорически против каких либо телодвижений пока не будет собрано достаточно входных данных для анализа.
Баланс со временем будет найден, просто нужно ждать подкруток Пингвина и продолжать искать закономерность по тем сайтам что остались не затронуты алгоритмом. Ну и ждать, когда хоть как то начнёт Гугл ранжировать новые сайты, на них и ставить опыты. Сейчас молодняк Гугл вообще тормознул, такое ощущение что обрубил ссылочное для них напрочь.
Смотря по какому фактору сайт был заПингвинен, если основной негатив был именно с большого количества не естественных(по мнению Гугла) анкоров в анкор листе, то встряска от прогона по каталогам может сбросить фильтр, НО только в следующий апдейт Пингвина и естественно это сработает только для сайтов с серьёзным возрастом, новички банально такую встряску не перенесут и залетят под другие фильтры, хоть и разбавят анкор лист.
Что касается подбора ссылок, то у меня достаточно простой сейчас подход. Я покупаю ссылки, только с тех сайтов, где есть достаточная аудитория и размещены ссылки на тех страницах и в таких местах, где ссылка будет видна для посетителя и он будет иметь возможность совершить целевой переход. В идеале именно такие ссылки должны считаться естественными. Подбор таких ссылок занимает уйму времени, НО они практически всегда хорошо работают и кроме того дают целевой трафик. К примеру у меня есть ссылки купленные с сайтов в Сапе по 3-5руб/мес по которым идёт целевой траф на мои сайты.
Тоже есть молодые сайты с похожими симптомами, пока решения о том как оптимально их сдвинуть с мёртвой точки не нашел. Продолжаю работать на контент + тематичные трафико-несущие ссылки.
Действительно складывается ощущение о некой заморозке. Можно предположить что Пингвину для вынесения вердикта о качественности сайта(цель обновления была в уменьшении влияния СЕО на выдачу) необходим некий минимальный массив ссылочной массы на основе которого алгоритм и делает вывод о том накладывать ли авто-фильтр на страницу или нет. До тех пор пока подобного массива ссылок сайт не набрал он находится на существенно заниженных позициях(грубо говоря с отключенным внешним ссылочным).
Очень разумно, смысл допиливать появляется, когда собранных данных достаточно, что бы сделать адекватные выводы о том в какую сторону пилить. Сейчас на посещаемых ресурсах ковырять внутреннюю структуру смысла не имеет т.к. алгоритм пока пьяный не стабилизированный, удивительно что Гугл без многократной обкатки на отдельных кластерах его применил.
Меня больше интересует как оптимально делать новые сайты, что бы Google к ним лояльно относился, ну и что бы максимально оперативно их в ТОП пихать, хотя бы по СЧ и НЧ.
Новость от СеоПульта как минимум вызывает удивление, такое ощущение что просто очень хотелось хоть что то написать, даже с учётом того что сами ещё не разобрались что происходит.
Графики представленные конечно интересны, но советы ставят в тупик. Основной акцент сделан на качество контента:
Т.е. нам говорят, что чаще всего проблемы из-за контента, но при этом сами же объясняют что пострадали, как сайты с не уникальным контентом, так и с уникальным(разворованным), так и абсолютно уникальные сайты, но с переоптимизацией(только вот умалчивают где эта грань).
При этом СеоПульт очевидно основной упор делает на ссылочное продвижение, которое Пингвин однозначно затронул и про это представители СеоПульта не говорят ни слова, сводя всё к тому что проблема только с контентом.
Переводя на доступный язык СеоПульт говорит "У Вас упали позиции из-за Пингвина - занимайтесь контентом и продолжайте закупать ссылки".
PS: у меня не очень большая выборка ресурсов, примерно 100 сайтов на постоянном мониторинге, но даже на ней видно хаотичное действие алгоритмов Гугла, при этом уклон явно в сторону перегибов с внешним ссылочным, но никак не с уникальностью контента.
PPS: интересная закономерность, ни один сгенерированный шаблонно трафолов под Google не пострадал, а они у меня имеют не более 10 входящих(обычно безанкорных) ссылок. Сайты на сгенерированной основе весьма низкого качества, поэтому о хороших ПФ так же речи быть не может.
Подход здравый, но ещё интересно изменился ли подход к отбору доноров после Пингвина. У Вас есть какие либо наблюдение в этом направлении?
Очень сложно сейчас выводы делать т.к. не укладывается ни одна из выдвинутых теорий в то что видно в СЕРП-е, а он к тому же ещё и пляшет буквально на глазах.
Складывается ощущение что произошел двойной удар, во первых обрезали влияние того что Гугл считает СЕО-ссылками, но часть сайтов при этом просела даже ниже чем они были без каких либо ссылок, фактически улетели в область 'Соплей', поэтому(во вторых) сработал фильтр на подобии временной пессимизации за резкий скачек ссылочного(аналогично тому что происходит при массовой перетряске анкор листа или массовой закупке/съеме ссылок).
Если теория верна, то со временем второй фильтр снимется и сайты вернутся, но не на свои прежние позиции, а на те места, которые обусловлены внешней ссылочной массой за вычетом ссылок что порезал пингвин.
Так же судя по заявлениям Гугла данный апдейт борется с целым списком СЕО-проявлений, большинство из которых связано с внешним ссылочным, однако в списке так же присутствует и переспам ключами.
В замен предлагается статья либо иной контент отвечающий запросу пользователя, в этом никакой проблемы нет, просто сайтов готовых удовлетворить запросу пользоватля многократно больше чем мест в ТОП-е.
Данный апдейт не контентный, тут проблема именно в СЕО прессинге и с ним нужно разбираться.