Слава богу, я не стал тоннами закупать ГС. Поэтому и снял не более 15%, так что думаю если задавать себе вопрос "возможно ли такое при естественном продвижении сайта", можно ответить на него утвердительно.
Позвольте с вами категорически не согласиться. Между статьями и контекстными ссылками в сапе - большая половая разница. Контекст в сапе - это на 90% УГ (копипаст, доски объявлений, проспамленные каталоги). Просто владельцы этого УГ, у которых, видимо, уже простые ссылки никто не покупает, решили попробовать продать хотя бы куски дублированного текста. Нормальных самописных, или хотя бы качественно отрерайтенных статей там нет. Второе: подобрать нужные ключевики с прямым вхождением очень сложно. Третье - разное время индексации страниц и ссылок (об этом вы уже сами сказали).
Ребят, ну где логика? Одно из предназначений АГСа - борьба со ссылочным спамом. Одна из причин удаления страниц из индекса в том, что эти страницы не представляют интереса для пользователей РУнета, и используются исключительно для размещения ссылок на них. Зачем яндексу фильтровать страницы, но при этом учитывать ссылочный вес, который они передают?
ИМхо, если и наблюдается появление бэков с зафильтрованных страниц в вебмастере, то это это вовсе не означает, что данные бэки передают хоть сколько-нибудь ощутимый вес, а если и передают, то это всё временный глюк поисковой машины, который будет исправлен в ближайшее время.
Так стоит ли тратить на эксперимент своё время?
а за какой срок до free-date можно подавать заявку на аукцион?
Про две недели никто в общем то не говорит, кроме Сами Знаете Кого. Проблема в том, что по конкурентным запросам даже за 3 месяца не удается вытянуть. По последнего Апа был близок к тому, чтобы сдать проект. Сейчас придет половину запросов снова тянуть вверх.
Возможно, боян.
С введением АГС-17 ужесточилась борьба с дублированным контентом на качественных площадках. Пример: на одном из сайтов выпало из индекса сразу 2 страницы, которые активно продвигались, имели уникальный контент и более года, находившиеся в ТОПе по коммерческим конкурентным запросам. Страницы выпали еще 7.10, но только сегодня получил ответ от Платона, в котором было сказано: на вашем сайте найдены другие страницы с аналогичным контентом, рекомендуем удалить их или закрыть в роботс. Сайту 4 года. Всё это время страницы-дубли были в индексе и нормально ранжировалисью Точнее нормально ранжировалась основная, а дубль нигде не вылезал, но был в индексе
да ни хрена не по старому. у меня добрая половина запросов до сих пор в больших минусах. ещё и пару страниц выкинули из индекса по непонятным причинам. Вместо них - главная в выдаче!
Аналогично, Ватсон.
После сегодняшнего апдейта, осознал, что всё о чём я писал накануне - это вообще не проблема :) Проблема - это когда после смены алгоритма 20% улетает вообще в тартарары. Причем независимо от их геозависимости или геонезависимости Теперь работой на выходные обеспечен.
Говоришь, копирайтером начинал? Ну-ну..
По теме: Выбирай любые запросы хоть геозависимые, хоть геонезависимые. После птица 20 выставишь регион "Вся Россия" и нормально они будут ранжироваться по всей стране - главное ссылочным, грамотно накачать.