А если ее вместо тебя использовали хрен знает по каким причинам?
Было бы у Википедии столько ссылок, если бы Гугл изначально держал бы ее в ж..е? То, что на нее много ссылок - это не заслуга Википедии, а результат хорошего расположения к ней Гугла. Подавляющее большинство естественных ссылок как набирается? Кто-то задает вопрос. Кто-то лезет в поиск и отвечает на этот вопрос из результатов поиска, давая в некоторых случаях ссылки. По этой же причине у нее и контент пух. Не было бы у нее трафика с Гугла и траста от него, не было бы у Википедии и такого числа редакторов. Так что, если ты не в ТОПе ПС, то о тебе никто и не узнает. Будет течь тоненький речеек по случайным НЧ и не более того.
Причем здесь ТИЦ и ПР? Нет однозначного ответа на ваш вопрос. Все очень зависит от тематики и организации вашего сайта, а так же от специфики аудитории. Есть тематики, где с одного клика по нескольку долларов получают (правда, это не в забугорном сегменте и в очень специфических тематиках), а есть тематики, где вы со 100 посетителей и 10 центов не наберете.
Насколько я понимаю, в переводе на русский это означает: "нефига было клики накручивать". И что вы сейчас хотите делать? Зарегистрировать новый аккаунт и продолжать кликать по объявлениям или просить кликать ваших друзей и домашнего питомца? Вам уже сказали, меняйте подход к жизни. Сначала сделайте приличный сайт и получите на нем хоть сколь ни будь значимую посещаемость, чтобы на нем были реальные пользователи, которым будет демонстрироваться реклама, а потом уже будете пытаться разблокировать текущий аккаунт или зарегистрировать новый.
Ладно было бы, что в ТОПах ГСы, которые не прокачивались ссылками, но там же ГСы которые именно ими и прокачивались, причем в самом худшем виде: от сапы до банального спама по всевозможным местам, в т.ч. и соседствуя с кучей порноссылок и прочего дерьма. И они спокойно собирают трафик с Гугла. Ситуация абсолютно бредовая.
Добавлю, что платоны отвечают вручную гораздо чаще и поэтому качественный сайт гораздо легче вытащить из под санкций.
ИМХО, дело не в рекурсиях. Просто невозможно по одним и тем же критериям и поощрять сайт и наказывать. Список критериев ведь совершенно не изменился. Качественный текст может быть и с одним единственным вхождением и с плотностью ключа более 5%. Тоже самое может быть и с ГС. Аналогичная ситуация и по всем другим критериям. А вот качество текста или сайта Гугл до сих пор оценить не может и потому играет в угадайку в слепую. А поскольку дерьма гораздо больше, чем качественного, да оно еще и разнообразнее, то получаем текущий результат. Понятия не имею, где выход из этой ситуации.
Не знаю, насколько это может упростить поисковый алгоритм, но жизнь оптимизаторам оно однозначно усложняет. Главная проблема в том, что после введения пингвина, Гугл до си пор не может нормально отстроить этот алгоритм, чтобы обеспечить хоть сколь ни будь приличную выдачу.---------- Добавлено 10.11.2012 в 22:11 ----------
О чем я и говорю. Это не столько скрывает алгоритм выдачи, сколько исключает возможность целенаправленной манипуляции выдачей. Эту задачу Гугл декларирует прямо и открыто, а потому данный механизм вполне правдоподобен.
В том то и дело, что далеко не обычными методами. Очень немногие работают с сайтом комплексно, и еще меньше работают с сайтом досканально. Обычно так работают только со своими самыми достойными сайтами. А из SEO-контор, если кто-то такое и делает, то для особых клиентов и за совсем отдельные деньги. Поэтому теория и встречает такое сопротивление. Тем, кто привык действовать только в рамках плотности ключей и количества ссылок, мысль о том, что придется реально работать с сайтом, выискивая огрехи и исправляя их, хуже лоботомии. А если еще эта теория дойдет до заказчиков, сидящих под монохромным зверинцем без симптомов освобождения, так им вообще хана. Вот и остается высмеивать идею ничего не предлагая в замен.
Опять рассуждения без понимания идеи. Не будет Гугл снижать на следующий день ничего. По ВЧ невозможно сидеть в ТОП2 превышая имеющуюся квоту. Если сайт сидит в ТОПе по ВЧ, значит количество показов по этому ВЧ не превышает квоты. При этом, если квота все таки низка, то он будет иметь очень короткий хвост остальных запросов. А если сайт при наличии квоты имеет огромный хвост запросов, то ему не светит ТОП по ВЧ. В вашем примере, если количество запросов по данному ВЧ резко возрастет и это возросшее количество будет стабильным, то Гугл начнет подстраивать позиции так, чтобы сайт укладывался в свою квоту. Судя по наблюдениям, подстройка занимает порядка месяца. Гугл как бы подбирает набор запросов и позиций по ним, чтобы они выдавали требуемое количество показов.