- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева

Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.
Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...
Да и никогда я, как сторонник квоты не говорил что она вычисляется раз в сутки, тут говорили только что сутки это период. А ведь может быть квота и на неделю и на месяц. И для того что бы гугл мог балансировать топом достаточно элементарного счетчика и простого алгоритма, который будет смещать позиции выше или ниже в зависимости от того насколько выполнена эта квота от эталонной кривой на текущий момент времени. 5 строчек кода элементарных проверок больше - меньше, и получаем нужный нам корригирующий коэффициент к выдаче.
Мало того, квоту с легкостью можно притянуть за уши к появлению кучи результатов в выдаче с одного сайта. Например, если раздел сайта не набирает нужной квоты, то показывается большая пачка страниц с этого сайта. Кстати, я уже тут писал, что по моему мнению квоту получает не сам сайт, а страницы или раздел (группа страниц объединенных одним гуглопризнаком)
Разумеется квотой нельзя объяснить все, например земля вращается вокруг солнца вовсе по другим причинам )
Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...
количество сайтов совсем разное в адвордсе и топе и просчитать в зависимости от релевантности и суммы за клик( + бюджет) и просчитать на основании 400 параметров( заявленных гуглом) при ранжированиие серча да еще и высчитывать квоты для каждого сайта это перебор как по мне🙅
Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...
Мало того, квоту с легкостью можно притянуть за уши к появлению кучи результатов в выдаче с одного сайта. Например, если раздел сайта не набирает нужной квоты, то показывается большая пачка страниц с этого сайта. Кстати, я уже тут писал, что по моему мнению квоту получает не сам сайт, а страницы или раздел (группа страниц объединенных одним гуглопризнаком)
)
Большая пачка с одного сайта скорее показывается тогда, когда остальные сайты выбрали квоту, а выдачу делать надо
---------- Добавлено 01.11.2012 в 19:49 ----------
Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.
Вы Немножко не поняли данное утверждение.
Говорилось о том, что гугл каждому сайту назначает суточную квоту показов, независимо от позиций в серпе. И в случае если алгоритм гугл считает, что сайт может перебирать назначенную квоту, то начинаются манипуляции выдачей в течении дня. Причем все происходит по разному. Я наблюдал как сайт выбирал половину среднесуточного количества переходов до 9 утра, а иногда на этот же сайт до 10 утра с гугла не было ни одного перехода. Причем ctr был практически постоянный.
А сами суточные квоты для рассчитываются гораздо реже, я не думаю что чаще чем один раз в неделю-две.
А когда сайт настигает пингвин и резко понижается квота на показы, то начинается подгонка серпа на постоянной основе под данную квоту, чтобы количество показов не упиралось постоянно в этот потолок. Поэтому позиции падают абсолютно не логично с обычной точки зрения.
---------- Добавлено 01.11.2012 в 19:58 ----------
Правильный ответ зависит от правильности постановки исходных данных. С чего вы решили так распределять факторы? С чего вы решили, что расчет квоты - это ресурсоемкая задача? У Гугла нет формальных апов выдачи (апдейты фильтров - это несколько иное) и, судя по показанным графикам и жалобам, выпадения и изменения квот (как в ту, так и в другую сторону) происходят не только в дни официальных апов фильтров. Значит, скорее всего, этот процесс постоянный. Чем больше факторов в нем участвует и чем более сложным образом, тем сложнее реинженерить этот механизм. Фактически, его уже совершенно невозможно реинженерить. При этом, ресурсоемкость задачи возрастает не сильно. Предположим, сканирует панда или пингвин сайт из ТОПа. Будет он при этом подсчитывать 5 параметров или 55 параметров - разница не велика.
Исходя из классических методов менеджмента, то любая функция направленная на контроль не несет добавленной стоимости для клиента и затраты на нее необходимо минимизировать. Добавленную стоимость для клиента в таком случае несет только алгоритм расчета serp. Поэтому я считаю, что даже если алгоритм не сильно затратен, то его не будут пересчитывать для сайта очень часто, по этой же причине нет необходимости в частых апдейтах пингвина и т. п.
Почему я предполагаю, что 90% веса квоты это внутренние параметры сайта? Потому что внешние параметры это ссылочное и оно влияет на serp, если ссылочное будет иметь достаточно большой вес на квоту показов, то не будет пересечений между "реальным" количеством показов и квотой. То есть вместе с выдачей в serp будет расти и квота.
Почему я предполагаю, что 90% веса квоты это внутренние параметры сайта? Потому что внешние параметры это ссылочное и оно влияет на serp, если ссылочное будет иметь достаточно большой вес на квоту показов, то не будет пересечений между "реальным" количеством показов и квотой. То есть вместе с выдачей в serp будет расти и квота.
Теперь понятно. Вы считаете, что для вычисления релевантности и "квоты" используются одни и те же параметры. ИМХО, в этом и ошибка. Например у ссылочной, для релевантности может использоваться "мощность" ссылочной массы и ее соответствие тематике сайта, а для "квоты" - ее спамность, искусственность, нетематичность. Аналогично и с другими факторами ранжирования. Один алгоритм оценивает соответствие документа/сайта запросу, а другой оценивает некачественность сайта и может быть документов. При продвижении сайта методами, с которыми борется Гугл, это две совершенно различные функции, которые идут навстречу друг другу и сходятся в некоторой точке. Получается, что сейчас нужно работать так, чтобы усиливать функцию релевантности, но не усиливать, а лучше ослаблять функцию "квоты".
Теперь понятно. Вы считаете, что для вычисления релевантности и "квоты" используются одни и те же параметры. ИМХО, в этом и ошибка. Например у ссылочной, для релевантности может использоваться "мощность" ссылочной массы и ее соответствие тематике сайта, а для "квоты" - ее спамность, искусственность, нетематичность. Аналогично и с другими факторами ранжирования. Один алгоритм оценивает соответствие документа/сайта запросу, а другой оценивает некачественность сайта и может быть документов. При продвижении сайта методами, с которыми борется Гугл, это две совершенно различные функции, которые идут навстречу друг другу и сходятся в некоторой точке. Получается, что сейчас нужно работать так, чтобы усиливать функцию релевантности, но не усиливать, а лучше ослаблять функцию "квоты".
С выводом согласен, а вот с параметрами не совсем, хотя могу и ошибаться. :) хотя некоторый вес доноров может участвовать в квоте.
С выводом согласен, а вот с параметрами не совсем, хотя могу и ошибаться. :) хотя некоторый вес доноров может участвовать в квоте.
По сути, какая разница... Даже если наше предположения верны, о конкретных параметрах этих функций мы все равно никогда не узнаем. Мы можем только предполагать с точки зрения формальной логики. Давайте попробуем составить список параметров, которые потенциально способны влиять на "квоту".
1. Количество страниц на сайте
2. Динамика роста количества страниц
3. Дубликаты страниц на сайте
4. Дубликаты title и descriptions (не уверен в этом)
5. Объемы контента на страницах
6. Переспам на сайте во всех отношениях
7. Наличие на сайте мертвых ссылок
8. Наличие на сайте плохих ссылок
9. Качество внешней ссылочной массы (понимайте под этим, что хотите)
10. Динамика изменения внешней ссылочной массы
11. Кликабельность страниц сайта в выдаче
12. Загруженность сайта рекламой
13. Использование других серых и черных методов SEO
14. Какие-то элементы ПФ
Кто что может добавить к данному списку?
Говорилось о том, что гугл каждому сайту назначает суточную квоту показов, независимо от позиций в серпе. И в случае если алгоритм гугл считает, что сайт может перебирать назначенную квоту, то начинаются манипуляции выдачей в течении дня.
Хотя я слегка скептически отношусь к идее "квоты показов", но могу подкинуть дров в вашу дискусию:
Кто-нибудь пробовал подумать над кореляцией между "квотой показов" и доходами от AdSense(CTR, RPM и т.д.)? Тут можно тоже найти некоторые странности. Особенно, если подумать о том, что Гуглу интереснее собирать клики по AdWords у себя в выдаче, чем у вас на сайте.
По сути, какая разница... Даже если наше предположения верны, о конкретных параметрах этих функций мы все равно никогда не узнаем. Мы можем только предполагать с точки зрения формальной логики. Давайте попробуем составить список параметров, которые потенциально способны влиять на "квоту".
1. Количество страниц на сайте
2. Динамика роста количества страниц
3. Дубликаты страниц на сайте
4. Дубликаты title и descriptions (не уверен в этом)
5. Объемы контента на страницах
6. Переспам на сайте во всех отношениях
7. Наличие на сайте мертвых ссылок
8. Наличие на сайте плохих ссылок
9. Качество внешней ссылочной массы (понимайте под этим, что хотите)
10. Динамика изменения внешней ссылочной массы
11. Кликабельность страниц сайта в выдаче
12. Загруженность сайта рекламой
13. Использование других серых и черных методов SEO
14. Какие-то элементы ПФ
Кто что может добавить к данному списку?
Я бы исключил:
Кликабедьность
Использование серых и чёрных методов - это уже к факторам "тяжелых" фильтров
Добавил
Ценность материалов сайта. Уникальность, новизна, "полезность"
Время отклика и загрузки страниц
Смена url (как понижающий фактор)
соотношение "сквозного" материала страницы генерируемого "cms" к "полезному"
в топике уже приводили примеры, что выбор квоты неравномерный в течение дня, т.е. сайтам могут оставить на вечер, например 20% квоты ))
если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.
это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).
Если тенденция использования квоты идет в сторону перебора, то сайт опускается на какое-то количество страниц вниз.
если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.
представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.
Наблюдал как сайт делал 50% трафика до 9 утра, а следующищи переход был после 12 дня.
а географию утреннего трафика изучали? Что если для посетителей ваши 9 утра - конец рабочего дня?
Я наблюдал как сайт выбирал половину среднесуточного количества переходов до 9 утра, а иногда на этот же сайт до 10 утра с гугла не было ни одного перехода
мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.
этим же легко объясняются изменения серпа втечение дня.
Хотя я слегка скептически отношусь к идее "квоты показов", но могу подкинуть дров в вашу дискусию:
.
Мы тоже к ней относимся достаточно скептически :), но пока данная гипотеза единственная которая хоть как-то объясняет происходящее с сайтами. :)
---------- Добавлено 01.11.2012 в 22:18 ----------
если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.
это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).
а географию утреннего трафика изучали? Что если для посетителей ваши 9 утра - конец рабочего дня?
мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.
этим же легко объясняются изменения серпа в течение дня.
Географию изучал. Все западнее урала. У меня вся эти подозрения начались, после того как я обратил внимание на отсутствие корреляции между трафиком гугла и яндекса в течение дня. :)
если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.
представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.
А какие причины Вы можете придумать в случаях когда в ТОП-3 один и тот же сайт ? Или когда много ГС в выдаче?