Резкое падение позиций в Google - 5

seo_optimist
На сайте с 09.09.2009
Offline
108
#931
vga1:
Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.

Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...

Да и никогда я, как сторонник квоты не говорил что она вычисляется раз в сутки, тут говорили только что сутки это период. А ведь может быть квота и на неделю и на месяц. И для того что бы гугл мог балансировать топом достаточно элементарного счетчика и простого алгоритма, который будет смещать позиции выше или ниже в зависимости от того насколько выполнена эта квота от эталонной кривой на текущий момент времени. 5 строчек кода элементарных проверок больше - меньше, и получаем нужный нам корригирующий коэффициент к выдаче.

Мало того, квоту с легкостью можно притянуть за уши к появлению кучи результатов в выдаче с одного сайта. Например, если раздел сайта не набирает нужной квоты, то показывается большая пачка страниц с этого сайта. Кстати, я уже тут писал, что по моему мнению квоту получает не сам сайт, а страницы или раздел (группа страниц объединенных одним гуглопризнаком)

Разумеется квотой нельзя объяснить все, например земля вращается вокруг солнца вовсе по другим причинам )

Vladimir SEO
На сайте с 19.10.2011
Offline
1975
#932
seo_optimist:
Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...

количество сайтов совсем разное в адвордсе и топе и просчитать в зависимости от релевантности и суммы за клик( + бюджет) и просчитать на основании 400 параметров( заявленных гуглом) при ранжированиие серча да еще и высчитывать квоты для каждого сайта это перебор как по мне🙅

Эксперт по продуктам Google https://support.google.com/profile/58734375 ᐈ Продвижение коммерческих сайтов https://kulinenko.com/
vagogrande
На сайте с 25.02.2012
Offline
110
#933
seo_optimist:


Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...


Мало того, квоту с легкостью можно притянуть за уши к появлению кучи результатов в выдаче с одного сайта. Например, если раздел сайта не набирает нужной квоты, то показывается большая пачка страниц с этого сайта. Кстати, я уже тут писал, что по моему мнению квоту получает не сам сайт, а страницы или раздел (группа страниц объединенных одним гуглопризнаком)
)

Большая пачка с одного сайта скорее показывается тогда, когда остальные сайты выбрали квоту, а выдачу делать надо

---------- Добавлено 01.11.2012 в 19:49 ----------

vga1:


Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.

Вы Немножко не поняли данное утверждение.

Говорилось о том, что гугл каждому сайту назначает суточную квоту показов, независимо от позиций в серпе. И в случае если алгоритм гугл считает, что сайт может перебирать назначенную квоту, то начинаются манипуляции выдачей в течении дня. Причем все происходит по разному. Я наблюдал как сайт выбирал половину среднесуточного количества переходов до 9 утра, а иногда на этот же сайт до 10 утра с гугла не было ни одного перехода. Причем ctr был практически постоянный.

А сами суточные квоты для рассчитываются гораздо реже, я не думаю что чаще чем один раз в неделю-две.

А когда сайт настигает пингвин и резко понижается квота на показы, то начинается подгонка серпа на постоянной основе под данную квоту, чтобы количество показов не упиралось постоянно в этот потолок. Поэтому позиции падают абсолютно не логично с обычной точки зрения.

---------- Добавлено 01.11.2012 в 19:58 ----------

Slavomir:

Правильный ответ зависит от правильности постановки исходных данных. С чего вы решили так распределять факторы? С чего вы решили, что расчет квоты - это ресурсоемкая задача? У Гугла нет формальных апов выдачи (апдейты фильтров - это несколько иное) и, судя по показанным графикам и жалобам, выпадения и изменения квот (как в ту, так и в другую сторону) происходят не только в дни официальных апов фильтров. Значит, скорее всего, этот процесс постоянный. Чем больше факторов в нем участвует и чем более сложным образом, тем сложнее реинженерить этот механизм. Фактически, его уже совершенно невозможно реинженерить. При этом, ресурсоемкость задачи возрастает не сильно. Предположим, сканирует панда или пингвин сайт из ТОПа. Будет он при этом подсчитывать 5 параметров или 55 параметров - разница не велика.

Исходя из классических методов менеджмента, то любая функция направленная на контроль не несет добавленной стоимости для клиента и затраты на нее необходимо минимизировать. Добавленную стоимость для клиента в таком случае несет только алгоритм расчета serp. Поэтому я считаю, что даже если алгоритм не сильно затратен, то его не будут пересчитывать для сайта очень часто, по этой же причине нет необходимости в частых апдейтах пингвина и т. п.

Почему я предполагаю, что 90% веса квоты это внутренние параметры сайта? Потому что внешние параметры это ссылочное и оно влияет на serp, если ссылочное будет иметь достаточно большой вес на квоту показов, то не будет пересечений между "реальным" количеством показов и квотой. То есть вместе с выдачей в serp будет расти и квота.

Блеск в его глазах был заревом праздничного салюта, которым его тараканы отметили окончательную победу над разумом
Slavomir
На сайте с 05.12.2005
Offline
107
#934
vagogrande:
Почему я предполагаю, что 90% веса квоты это внутренние параметры сайта? Потому что внешние параметры это ссылочное и оно влияет на serp, если ссылочное будет иметь достаточно большой вес на квоту показов, то не будет пересечений между "реальным" количеством показов и квотой. То есть вместе с выдачей в serp будет расти и квота.

Теперь понятно. Вы считаете, что для вычисления релевантности и "квоты" используются одни и те же параметры. ИМХО, в этом и ошибка. Например у ссылочной, для релевантности может использоваться "мощность" ссылочной массы и ее соответствие тематике сайта, а для "квоты" - ее спамность, искусственность, нетематичность. Аналогично и с другими факторами ранжирования. Один алгоритм оценивает соответствие документа/сайта запросу, а другой оценивает некачественность сайта и может быть документов. При продвижении сайта методами, с которыми борется Гугл, это две совершенно различные функции, которые идут навстречу друг другу и сходятся в некоторой точке. Получается, что сейчас нужно работать так, чтобы усиливать функцию релевантности, но не усиливать, а лучше ослаблять функцию "квоты".

Вакансии удаленной работы (http://www.telejob.ru) Найди удаленного исполнителя (http://www.telejob.ru)
vagogrande
На сайте с 25.02.2012
Offline
110
#935
Slavomir:

Теперь понятно. Вы считаете, что для вычисления релевантности и "квоты" используются одни и те же параметры. ИМХО, в этом и ошибка. Например у ссылочной, для релевантности может использоваться "мощность" ссылочной массы и ее соответствие тематике сайта, а для "квоты" - ее спамность, искусственность, нетематичность. Аналогично и с другими факторами ранжирования. Один алгоритм оценивает соответствие документа/сайта запросу, а другой оценивает некачественность сайта и может быть документов. При продвижении сайта методами, с которыми борется Гугл, это две совершенно различные функции, которые идут навстречу друг другу и сходятся в некоторой точке. Получается, что сейчас нужно работать так, чтобы усиливать функцию релевантности, но не усиливать, а лучше ослаблять функцию "квоты".

С выводом согласен, а вот с параметрами не совсем, хотя могу и ошибаться. :) хотя некоторый вес доноров может участвовать в квоте.

Slavomir
На сайте с 05.12.2005
Offline
107
#936
vagogrande:
С выводом согласен, а вот с параметрами не совсем, хотя могу и ошибаться. :) хотя некоторый вес доноров может участвовать в квоте.

По сути, какая разница... Даже если наше предположения верны, о конкретных параметрах этих функций мы все равно никогда не узнаем. Мы можем только предполагать с точки зрения формальной логики. Давайте попробуем составить список параметров, которые потенциально способны влиять на "квоту".

1. Количество страниц на сайте

2. Динамика роста количества страниц

3. Дубликаты страниц на сайте

4. Дубликаты title и descriptions (не уверен в этом)

5. Объемы контента на страницах

6. Переспам на сайте во всех отношениях

7. Наличие на сайте мертвых ссылок

8. Наличие на сайте плохих ссылок

9. Качество внешней ссылочной массы (понимайте под этим, что хотите)

10. Динамика изменения внешней ссылочной массы

11. Кликабельность страниц сайта в выдаче

12. Загруженность сайта рекламой

13. Использование других серых и черных методов SEO

14. Какие-то элементы ПФ

Кто что может добавить к данному списку?

Lor
На сайте с 28.05.2004
Offline
352
Lor
#937
vagogrande:
Говорилось о том, что гугл каждому сайту назначает суточную квоту показов, независимо от позиций в серпе. И в случае если алгоритм гугл считает, что сайт может перебирать назначенную квоту, то начинаются манипуляции выдачей в течении дня.

Хотя я слегка скептически отношусь к идее "квоты показов", но могу подкинуть дров в вашу дискусию:

Кто-нибудь пробовал подумать над кореляцией между "квотой показов" и доходами от AdSense(CTR, RPM и т.д.)? Тут можно тоже найти некоторые странности. Особенно, если подумать о том, что Гуглу интереснее собирать клики по AdWords у себя в выдаче, чем у вас на сайте.

Йопез - форум без модераторов. https://yopez.com
vagogrande
На сайте с 25.02.2012
Offline
110
#938
Slavomir:

По сути, какая разница... Даже если наше предположения верны, о конкретных параметрах этих функций мы все равно никогда не узнаем. Мы можем только предполагать с точки зрения формальной логики. Давайте попробуем составить список параметров, которые потенциально способны влиять на "квоту".
1. Количество страниц на сайте
2. Динамика роста количества страниц
3. Дубликаты страниц на сайте
4. Дубликаты title и descriptions (не уверен в этом)
5. Объемы контента на страницах
6. Переспам на сайте во всех отношениях
7. Наличие на сайте мертвых ссылок
8. Наличие на сайте плохих ссылок
9. Качество внешней ссылочной массы (понимайте под этим, что хотите)
10. Динамика изменения внешней ссылочной массы
11. Кликабельность страниц сайта в выдаче
12. Загруженность сайта рекламой
13. Использование других серых и черных методов SEO
14. Какие-то элементы ПФ

Кто что может добавить к данному списку?

Я бы исключил:

Кликабедьность

Использование серых и чёрных методов - это уже к факторам "тяжелых" фильтров

Добавил

Ценность материалов сайта. Уникальность, новизна, "полезность"

Время отклика и загрузки страниц

Смена url (как понижающий фактор)

соотношение "сквозного" материала страницы генерируемого "cms" к "полезному"

dkameleon
На сайте с 09.12.2005
Offline
386
#939
GlazAlmaz:
в топике уже приводили примеры, что выбор квоты неравномерный в течение дня, т.е. сайтам могут оставить на вечер, например 20% квоты ))

если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.

это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).

Slavomir:
Если тенденция использования квоты идет в сторону перебора, то сайт опускается на какое-то количество страниц вниз.

если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.

представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.

vagogrande:
Наблюдал как сайт делал 50% трафика до 9 утра, а следующищи переход был после 12 дня.

а географию утреннего трафика изучали? Что если для посетителей ваши 9 утра - конец рабочего дня?

vagogrande:
Я наблюдал как сайт выбирал половину среднесуточного количества переходов до 9 утра, а иногда на этот же сайт до 10 утра с гугла не было ни одного перехода

мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.

этим же легко объясняются изменения серпа втечение дня.

Дизайн интерьера (http://balabukha.com/)
vagogrande
На сайте с 25.02.2012
Offline
110
#940
Lor:

Хотя я слегка скептически отношусь к идее "квоты показов", но могу подкинуть дров в вашу дискусию:
.

Мы тоже к ней относимся достаточно скептически :), но пока данная гипотеза единственная которая хоть как-то объясняет происходящее с сайтами. :)

---------- Добавлено 01.11.2012 в 22:18 ----------

dkameleon:

если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.
это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).



а географию утреннего трафика изучали? Что если для посетителей ваши 9 утра - конец рабочего дня?

мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.
этим же легко объясняются изменения серпа в течение дня.

Географию изучал. Все западнее урала. У меня вся эти подозрения начались, после того как я обратил внимание на отсутствие корреляции между трафиком гугла и яндекса в течение дня. :)

dkameleon:

если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.
представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.

А какие причины Вы можете придумать в случаях когда в ТОП-3 один и тот же сайт ? Или когда много ГС в выдаче?

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий