Вы хотите сказать, что данная тема предназначена только для тех, кто решил поплакаться в жилетку, а для тех, кто пытается разобраться в причинах и путях выхода тема заказана?---------- Добавлено 02.11.2012 в 10:58 ----------
Найдите этот патент и почитайте. Я читал только новость о его получении. Думаю, вы прекрасно знаете, какими методами оптимизаторы пытаются воздействовать на выдачу. Вот на применение этих методов Гугл и собирается отслеживать или уже отслеживает.
Что Гугл может устраивать провокации в виде понижения сайта в выдаче с целью оценить реакцию владельца/оптимизатора. У них уже под это дело патент получен.
Может быть и не пшик, но... боюсь, что при массовом использовании, ПС начнут стремиться сделать эту систему нерабочей. А может им и не придется этого делать. Здесь уже высказывали сомнения, хватит ли потом на всех хороших доноров? Я бы еще добавил, а останутся ли они хорошими при нагрузке данной системой? Лучшие доноры - это те, на которые реально сложно попасть. А "там, где прошла толпа, остается пустыня" (с).
Во, блин. Я уже 5,5 лет как зарегистрирован ИП и этот вопрос все время стоял. Ну, хотелось некоторым увеличить платежи в накопительную часть за счет обязательного налога. А министерство финансов разродилось письмом по этому поводу только две недели назад. Какую тормозную жидкость они пьют?
Вы у меня это спрашиваете? Спрашивайте у сотрудников Гугла, которые это придумали и реализовали. Я всего лишь описываю то, что наблюдаю. Наберите сами в русском Гугле запрос "работа на дому" (без кавычек) и поанализируйте выдачу и факторы, которые позволили этим сайтам попасть в ТОП.
Во-первых, лимит переходов находится под вопросом. Мы говорим о лимите показов. Вы разницу совсем не понимаете? Во-вторых, у данного сайта может быть лимит показов в несколько тысяч, а может быть и в несколько десятков тысяч. Откуда нам знать?
Кстати, выдача хоть и узкотематическая, но даже на первый взгляд интересная. Обратите внимание, что сайт, стоящий на первом месте присутствует и на второй странице выдачи, и на третьей странице. Обратите внимание на позиции досок объявлений, как пример сайтов с большим числом страниц.
Я бы тоже хотел знать,что за результат выдает данный запрос. Сколько я не анализировал, корреляции с позициями или фильтрами не обнаружил.---------- Добавлено 02.11.2012 в 08:28 ----------
Нонсенс - это текущая выдача Гугла. Я смотрю на выдачу по своему главному ВЧ и мне жаль пользователей. Предположение о "потолке" всего лишь достаточно логично его объясняет.
Я пока отказываться от этого не буду, т.к. в WMT есть несколько запросов/страниц с кликабельностью 1-2%, а то и не имеющих 1%. Попробую в этом направлении "поколдовать". В пользу данного фактора говорит еще и то, что Гугл собирает и хранит эти данные за какой-то период. Если вы добавите новый сайт в WMT, то сразу получите эту информацию за три последних месяца. А вот в уникальности title и description сомневаюсь именно потому, что эта информация в WMT для нового сайта сразу не появляется, а постепенно накапливается. Кстати, это же касается динамики проиндексированных страниц. Впрочем, не факт, что у Гугла нет баз аналогичными данными, собираемыми параллельно без связи в WMT.
Согласился бы, если бы видел, что Гугл способен это оценить. Вот Яндекс на это реально способен. Впрочем, я рассуждаю о русском Гугле, а что в английском - большой вопрос.
Этому у меня тоже нет подтверждений. С июля мой сайт переехал на VPS немецкого хостинга, который отдает страницы Гуглу весьма шустро, а в конце августа включил на хостинге gzip-сжатие, что уменьшило трафик в 5-6 раз. Однако, какого бы то ни было значимого эффекта это не дало. Только немного увеличилось количество страниц, забираемых с сайта сканирующим роботом. Статистика отчета "Site performance" у них давно уже не пашет и сейчас там надпись, что они этот отчет больше не поддерживают. Да они сами бы следовали своим рекомендациям, ибо сейчас сайты больше тормозят от внешних рекламных блоков РСЯ и Google AdSense, чем от внутренних факторов.
Возможно. Если еще не ввели этот фактор, то могут ввести для фанатов бороться с фильтрами переездом на новый домен или полным изменением структуры сайта.
Может быть. И что же с этим делать? Давать сайтам убогий самый примитивный дизайн? Надо будет провентилировать свои топы по этому вопросу. Агрегаторы, о которых я писал, вполне под это подходят.---------- Добавлено 01.11.2012 в 23:25 ----------
По логике, одно другому не мешает, а с целью максимизации прибыли Гугл, наоборот должен давать бонус сайтам с AdSense. Мне кажется, что теорию о том, что Гугл все делает только для увеличения прибыли от контекстной рекламы все таки стоит отложить в сторону. Версия, что он пытается создать условия, при которых манипуляция выдачей станет практически невозможной, более правдоподобна.---------- Добавлено 01.11.2012 в 23:30 ----------
По последним наблюдениям и анализам, существуют сайты, которые свою квоту не выбирают. Вот такие и могут оставаться в ТОПах достаточно стабильно. Помимо этого, такие сайты могут получить несколько мест в выдаче. Вероятно некоторые сайты с количеством страниц от сотен тысяч до десятков миллионов имеют настолько большую квоту, что занимают множество мест в выдаче по очень приличным запросам.
По сути, какая разница... Даже если наше предположения верны, о конкретных параметрах этих функций мы все равно никогда не узнаем. Мы можем только предполагать с точки зрения формальной логики. Давайте попробуем составить список параметров, которые потенциально способны влиять на "квоту".
1. Количество страниц на сайте
2. Динамика роста количества страниц
3. Дубликаты страниц на сайте
4. Дубликаты title и descriptions (не уверен в этом)
5. Объемы контента на страницах
6. Переспам на сайте во всех отношениях
7. Наличие на сайте мертвых ссылок
8. Наличие на сайте плохих ссылок
9. Качество внешней ссылочной массы (понимайте под этим, что хотите)
10. Динамика изменения внешней ссылочной массы
11. Кликабельность страниц сайта в выдаче
12. Загруженность сайта рекламой
13. Использование других серых и черных методов SEO
14. Какие-то элементы ПФ
Кто что может добавить к данному списку?
Теперь понятно. Вы считаете, что для вычисления релевантности и "квоты" используются одни и те же параметры. ИМХО, в этом и ошибка. Например у ссылочной, для релевантности может использоваться "мощность" ссылочной массы и ее соответствие тематике сайта, а для "квоты" - ее спамность, искусственность, нетематичность. Аналогично и с другими факторами ранжирования. Один алгоритм оценивает соответствие документа/сайта запросу, а другой оценивает некачественность сайта и может быть документов. При продвижении сайта методами, с которыми борется Гугл, это две совершенно различные функции, которые идут навстречу друг другу и сходятся в некоторой точке. Получается, что сейчас нужно работать так, чтобы усиливать функцию релевантности, но не усиливать, а лучше ослаблять функцию "квоты".
Мне в угадайку играть не приходится. Дерьмо, появившееся независимо от моего желания, видно невооруженным глазом. Однако, насколько же муторно и долго это дерьмо разгребать.