Вообще-то Гуглом декларируется цель: пресечение манипуляций выдачей. Вот только все настолько далеко зашло, что любые попытки серьезного наказания за "манипуляцию выдачей" приводят к тому, что в выдаче мало что приличного остается. Если бы не действовал фактор огромного числа страниц, который еще пока обеспечивает топы крупным сайтам, то все было бы еще печальнее.
Сейчас разработчики Гугла и назад пойти не могут (и из-за потери лица, и из-за того, что старый путь однозначно тупиковый) и вперед не знают как двигаться, чтобы привести в выдачу в приемлемое состояние. Вот такая ж..а.
И с чем он тогда останется? С ГСами, на которые совсем нет ссылок?
Попробуйте. Надеюсь, расскажите здесь о результате. А AdSense на сайте нет? В теории Гугл может следить за сайтом и через него, как это делает Яндекс в своей РСЯ.
На мой взгляд, "квота" - это инструмент, позволяющий уничтожить следующие зависимости между:
1. ТОПом выдачи и параметрами сайтов из него.
2. Причиной наложения фильтра и последствиями этого фильтра
3. Действиями оптимизатора и результатами этих действий.
Уничтожение этих зависимостей реально может сделать невозможным привычную манипуляцию выдачей. Эту цель Гугл прямо декларирует. Наивно полагать, что оптимизаторы этому последуют. Значит нужно заставлять. Возможно "квота" существовала уже давно, но до прихода пингвина не работала так, как нужно. Теперь результат действительно стал похож на рандомный. Заметьте, оптимизаторы уже применили все возможные меры в рамках старых стереотипов, а результата все нет и нет. Предполагаю, что алгоритм "отпуска" еще более навороченный, чем алгоритм "попадания", чтобы опять же исключить появление связи между действиями оптимизатора и результатом этих действий.
Подозреваю, что если таких хитрых станет достаточно много, то это будет считаться одним из способов манипуляции выдачей, а потом Гугл родит в зоопарке еще какого ни будь зверька. А что вы хотите, если вместо "работы по улучшению качества сайта" вы делаете различные сайты, подстраивающиеся под различные поисковые системы? И не рассчитывайте на robots.txt. Его содержимое носит рекомендательный характер. Вам придется банить робота по IP, если, конечно, сможете где-то найти полный список этих самых IP.
Это становится совсем интересно. Сначала дал, чему может соответствовать первый пик, а потом отобрал в апдейт пингвина, чему может соответствовать второй пик. А во второй половине октября подъема не было? Тем более, что Гугл явно стал более лояльно относится к сайту, индексируя большее число страниц.
А трафик то с Гугла когда прирос и как интенсивно это происходило? Если мне не изменяет память, то ваш сайт еще раз кусал пингвин 6-го октября, т.е. второй всплеск может быть связан именно с этим. Однако, в отличие от крайних пиков он какой-то более широкий. Мой пик похож на крайние.---------- Добавлено 08.11.2012 в 21:58 ----------
Если не забуду. Пока никаких проблем. На прошлой неделе график показов слегка приопустился и количество переходов с Гугла несколько снизилось. Сейчас все вернулось на уровень двухнедельной давности. Еще заметил, что сайт по главному ВЧ перестал скакать в выдаче как угорелый. Если раньше он прыгал в пределах от конца третьей сотни до середины шестой, то сейчас стабильно сидит в хвосте четвертой сотни.
График у вас просто шикарный. Не часто такое увидишь. Чтобы на малых величинах ровная прямая... Обычно все таки в выходные проседает, да и в остальные дни какие-то отдельные отклонения могут быть. Что за тематика сайта?
У меня на примете есть еще один сайт, который получает порядка 70% трафика по одному единственному ВЧ и имеет весьма короткий хвост запросов. У меня же на сайте остался практически только НЧ трафик. И такая нелепица тоже наводит на мысли о какой-то регулировке. Хотелось бы понять, по какому принципу Гугл решает, кому дать ВЧ без НЧ, а кому - наоборот.---------- Добавлено 08.11.2012 в 18:49 ----------
Насколько велики эти пики относительно "обычного уровня"? с какого числа начался всплеск переходов с Гугла? Насколько резким он был?
Вы не могли бы посмотреть, не наблюдался ли перед рывком всплеск запросов документов сайта (отчет Crawl Stats)?
У меня 3 ноября Гугл сбрендил, скачав в два раза больше страниц, чем обычно. Причем, судя по графикам нагрузки, он сделал это не в течение дня, а за весьма короткий промежуток времени, умудрившись добиться несколько 504 ошибок, которые вылезли в WMT. Теперь гадаю, чего это ему приспичило.
Спасибо за интересное наблюдение. У моего сайта с середины июня на графике прямая линия. Это что-то оригинальное. Даже не знаю, как это трактовать.---------- Добавлено 08.11.2012 в 12:43 ----------
Изначально теория родилась именно на ограниченности графика показов в WMT. Количество переходов - это уже вторичная величина, зависящая от позиции сайта на странице, от снипета и других факторов. Однако, имеются некоторые факты, что Гугл может и ограничивать число переходов. Мы в предыдущей теме рассматривали один туристический сайт, которому два сезона подряд в двух соседних месяцах сезона срезал переходы, сформировав на графиках LI "плато", а Яндекс при этом демонстрировал совсем другое. Вот теперь еще имеем странные графики Алексы.