Слушайте, идите с этими сказками куда подалее. Они никогда не работали, а сейчас и подавно не работают. Вернее можно сделать сайт таким, что для продвижения нового контента по НЧ особых усилий не потребуется, но путь этот очень медленный и далеко не естественный. Моим основным сайтам 10-11 лет и у них статус весьма недурственный, если не считать последних выкрутасов Гугла (впрочем, и от этого один сайт получает по два места в ТОП 10 по своим ключам). Да и запингвиненный сайт постоянно добавлялся в новые сервисы, как источник трастовых ссылок, в результате чего пришлось всё таки все ссылки на сайте загнать в nofollow. Только в текущих условиях я совершенно не уверен, что мог бы добиться таких же результатов, тем более за значительно более короткий срок. О том, сколько бы денег и сил это потребовало, даже думать боюсь.
Я прекрасно знаю, что иначе как "дурдом" это назвать нельзя. Если теория верна, Гугл выбрал весьма оригинальный и достаточно перспективный путь, но до сих пор не смог подобрать приемлемые параметры для получения приличной выдачи. И не известно, когда он это сделает и сделает ли вообще. В добавок он скорее всего создал инструменты, позволяющие топить конкурентов и хорошие сайты. Возможно скоро больше времени будет тратиться не на продвижение, а на борьбу с утоплением.
Я говорю о том, что наблюдаю в выдаче. Сайты с десятками тысяч страниц фильтруются, а сайты с сотнями тысяч и с миллионами страниц получают множество мест в выдаче, даже если по всем остальным параметрам они давно должны быть зафильтрованы.
А здесь мы видим типичный пример стереотипного мышления оптимизатора. И всего то под абсолютно идентичную теорию "квоты" подвел исключительно ссылочную причину. Вывод из данный теории очевиден любому консерватору: нужно закупить ссылок пожирнее на морду и на контент, а чтобы не угодить под пингвин ссылки должны быть безанкорные. И после этого будет вам великое счастье.
Похоже, вы не совсем правильно понимаете, что такое "дофигища страниц". Это от сотен тысяч до десятков миллионов. У вас столько есть? Предполагаю, что нет, т.к. при таком количестве 400 новых страниц - это капля в море.
Для меня разницы никакой нет. Квота - явно комплексный показатель, зависящий в т.ч. и от параметров, которые сложно оценить. Пытаться что-то там однозначно вычислить и подстроиться под это - задача обреченная на провал. Даже если бы эта задача была бы решаема, то это постоянная позиция догоняющего. Через некоторое время появятся новые фильтры, а у старых фильтров появятся новые параметры или изменят силу старые параметры. Опять вычислять и подстраиваться? Работать на опережение куда перспективнее. А для этой цели нужен не только анализ, но и мышление. Поэтому меня больше интересует мнение других на вопрос "как оно может быть?", нежели знание на вопрос "как оно есть сейчас?". Тем более, что за полгода со вторым вопросом совсем не продвинулись, а до сих пор отвечают на первый, но в рамках старых стереотипов.
Валяйте. Я даю вам URL сайта, даю ключевики, по которым сайт был в поиске за последнюю неделю, а вы в течение месяца обеспечиваете стабильное количество показов на уровне хотя бы 110. По срокам не удивляйтесь. Именно столько сайт колбасило, прежде чем "потолок" стал стабильным. А от списка запросов и средних позиций во время расколбаса я просто валяюсь. Позиции 160, 280, 400, 460, 680, 780, 800. Это ППЦ. А на последней неделе четыре фразы со средними позициями в пределах ТОП10. Подстроил таки выдачу под квоту.
Какую доказательную базу вы хотите получить? Признание Каттса на дыбе? Теоретически квоту можно подтвердить путем искусственного интенсивного расходования квоты у сайтов сразу после расчетного часа (не знаю, какой он у поиска, но в AdSense - это 11 часов по московскому времени), когда в теории сайты должны возвращаться на исходные позиции. В результате мы получим либо всплеск на графике показов, либо опускание сайта по его запросам вплоть до полного вылета за пределы видимости. Вот только в подавляющем большинстве случаев потребуется имитация поведения многих тысяч пользователей с различных IP-адресов. И у кого есть инструментарий для такого эксперимента? У меня есть сайт, которому 29 сентября квоту срезало с 250 до нуля, поколбасило на небольшом уровне и сейчас устаканилось на значении 22 показа. Ранее сайт по ключевику домена имел где-то 1000 показов в неделю, а сейчас - 30. При этом средняя позиция по данному ключевику показывается 6,6, но я вообще сайт нигде не видел по нему, т.е. понятия не имею, где и когда сайт показывается по нему. Можно было бы провести эксперимент по этому сайту, но проблема в том, что ранее он имел показы более чем по сотне запросов, а за последнюю неделю - только по четырем, причем по двум запросам я его в данный момент не вижу. И как тогда определять его "улет" и в каких Гуглах?
И зачем, вообще маяться такой фигней, тратя на нее немаленькие ресурсы? Мне вполне хватает того, что логика показывает, что теория весьма правдоподобна и способна объяснить целый ряд явлений, не имеющих объяснения привычными SEO-стереотипами. Путь выхода из этой проблемы тот же, что я всегда выбирал, а конкретный маршрут стал более понятным, т.ч. и здесь для меня никаких проблем нет. Вам не нравится эта теория? Так не читайте наше обсуждение и спокойно занимайтесь привычным действом. Ведь даже если кому-то из нас удастся за счет комплексного подхода существенно поднять квоту своим сайтам, вы все равно в это не поверите, а будете твердить, что мы всего лишь прокачали какие-то запросы или избавились от панды, убрав переспам.---------- Добавлено 05.11.2012 в 11:29 ----------
Типа на одних этот фильтр наложен, а на других нет? Может быть. Только чем это отличается от предположения "квота наложена всем, но одни ее не выбирают, а другие - упираются"? Результат то одинаков. Важно то, что "квота" не имеет собственных факторов, а рассчитывается по факторам других фильтров. Другим важным моментом является то, что конкретные факторы влияющие на квоту не вычисляемы, а результат действия квоты не предсказуем и может быть совершенно не связан с факторами. Значит искать конкретные причины нет смысла, а необходимо работать с сайтом комплексно, устраняя все возможные дефекты.
Ребята, ну вы и настрочили. Ночью спать надо. ;)
Про округление я подробно описал в пятой теме про резкое падение. Оно не поддается никакой логике, кроме как скрытия квотирования. В общих чертах, чем больше значение, тем больше шаг ступеней графика, а на первоначальном этапе это вообще не круглые цифры. Вот значения ступеней для ступеней у сайта с графиком близким к нулю: 0, 12, 16, 22, 30, 35. Вы здесь логику и целесообразность видите? А как насчет ступенек 110, 150, 170, 200, 250, 320, 400, 500? Дальше шаг так или иначе кратен сотням и может достигать очень больших значений. За подробностями обращайтесь к тем, у кого количество показов в десятки тысяч, а лучше переваливает за сотню тысяч.
А общее количество ссылок на ваш сайт сколько? У меня количество доменов от которых собираюсь отказаться уже перевалило за общее количество ссылающихся доменов, которое показывает Яндекс и Гугл. Правда, порядка 80% - это различные домены третьего уровня, которые и Гугл и Яндекс в отчетах объединяют по домену второго уровня. Однако, когда закончу работу по вылову всего дерьма, и доменов второго уровня наберется весьма приличное количество по отношению к общей ссылочной массе.
Так вас туда и пустили. Если сайт создан для продаж товаров и услуг, то владелец никогда не должен согласиться на размещение каких-то там ссылок, а как только согласился, то сайт быстро перестанет иметь первоначальное назначение.