vagogrande

vagogrande
Рейтинг
110
Регистрация
25.02.2012
AkudJEE:

Что вы имеете ввиду? Чтобы опытный вебмастер проверил мой сайт на оптимизацию?

Нет :) гугл имеет алгорит мпо противодействию действиям вебмастера. Понижает или повышает позиции и наблюдает за действиями вебмастрера. Таким образом определяет есть ли манипуляции со стороны вебмастера. После этого принимается решение по сайту.

dkameleon:

Но это же нонсенс - посещаемость таких сайтов не зависит ни от их качества ни от СЕО.

Ок, что будет, если неожиданно трафик попрет вверх и его хватит на всех?
Все выберут квоту. а дальше? шлак, велкам в топ? неожиданный рост квоты для исчерпавших её?

Но это так и есть и шлак в ТОПе, особенно в первые дни после обновления пингвина. Да и сейчас тоже по некоторым запросам.

Да не зависит, например сайт который вообще не продвигают. Он может иметь "квоту" допустим на 1000 показов, а из-за своих позиций, в том числе отсутствия ссылок на него имеет 200 показов в день, Так как он сидит на супер НЧ, то его гафик имеет вид "елочки". Или сайты у которых "квота" стремится к бесконечности, я допускаю, что такие есть. Та же википедия.

AkudJEE:
. Или хотя бы точно сказать какой это фильтр? Панда или Пингвин? Что интересного на поиск по картинкам фильтр не наложен. График показов выложу попозже, пока нет возможности.
P.S. Сайт в подписи это не тот о котором я говорю.

Писк по картинкам нормально работает и под пингвином. Проверено.

Сайт сейчас посмотреть тоже некогда.

Может быть проверка вебмастера на оптимизацию.

Lesay:
Получила ответ из службы поддержки Яндекса:
Спасибо, что обратили наше внимание на проседание позиций Вашего сайта, мы проанализируем ситуацию. Когда всё прояснится, я Вам напишу.

Обидно :(, сайт хороший, продвигались статьями и внутренней оптимизацией уникальных текстов. Просел от -30 до -150, был по всем ключевым запросам в ТОП 10😡
Что делать😕?

Имху. Очен положительный ответ. Я бы его перевел: мы сами в ауте с какого перепуга матрикснет его зарезал :)

Slavomir:

Согласился бы, если бы видел, что Гугл способен это оценить. Вот Яндекс на это реально способен. Впрочем, я рассуждаю о русском Гугле, а что в английском - большой вопрос..
.

"полезность" было вроде в кавычках :)

Ведь для чего-то существует оператор

site:sitename.ru/&

Lor:

Хотя я слегка скептически отношусь к идее "квоты показов", но могу подкинуть дров в вашу дискусию:
.

Мы тоже к ней относимся достаточно скептически :), но пока данная гипотеза единственная которая хоть как-то объясняет происходящее с сайтами. :)

---------- Добавлено 01.11.2012 в 22:18 ----------

dkameleon:

если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.
это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).



а географию утреннего трафика изучали? Что если для посетителей ваши 9 утра - конец рабочего дня?

мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.
этим же легко объясняются изменения серпа в течение дня.

Географию изучал. Все западнее урала. У меня вся эти подозрения начались, после того как я обратил внимание на отсутствие корреляции между трафиком гугла и яндекса в течение дня. :)

dkameleon:

если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.
представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.

А какие причины Вы можете придумать в случаях когда в ТОП-3 один и тот же сайт ? Или когда много ГС в выдаче?

Slavomir:

По сути, какая разница... Даже если наше предположения верны, о конкретных параметрах этих функций мы все равно никогда не узнаем. Мы можем только предполагать с точки зрения формальной логики. Давайте попробуем составить список параметров, которые потенциально способны влиять на "квоту".
1. Количество страниц на сайте
2. Динамика роста количества страниц
3. Дубликаты страниц на сайте
4. Дубликаты title и descriptions (не уверен в этом)
5. Объемы контента на страницах
6. Переспам на сайте во всех отношениях
7. Наличие на сайте мертвых ссылок
8. Наличие на сайте плохих ссылок
9. Качество внешней ссылочной массы (понимайте под этим, что хотите)
10. Динамика изменения внешней ссылочной массы
11. Кликабельность страниц сайта в выдаче
12. Загруженность сайта рекламой
13. Использование других серых и черных методов SEO
14. Какие-то элементы ПФ

Кто что может добавить к данному списку?

Я бы исключил:

Кликабедьность

Использование серых и чёрных методов - это уже к факторам "тяжелых" фильтров

Добавил

Ценность материалов сайта. Уникальность, новизна, "полезность"

Время отклика и загрузки страниц

Смена url (как понижающий фактор)

соотношение "сквозного" материала страницы генерируемого "cms" к "полезному"

Неделю не снимал позиции. Сегодня обнаружил, что позиции упавшие в полную ж… 18 августа начали подъем. По ним никакой работы не велось Никто не задумывался о том, что это может быть какой-то модификацией пингвина? Только в более мягкой форме?

Slavomir:

Теперь понятно. Вы считаете, что для вычисления релевантности и "квоты" используются одни и те же параметры. ИМХО, в этом и ошибка. Например у ссылочной, для релевантности может использоваться "мощность" ссылочной массы и ее соответствие тематике сайта, а для "квоты" - ее спамность, искусственность, нетематичность. Аналогично и с другими факторами ранжирования. Один алгоритм оценивает соответствие документа/сайта запросу, а другой оценивает некачественность сайта и может быть документов. При продвижении сайта методами, с которыми борется Гугл, это две совершенно различные функции, которые идут навстречу друг другу и сходятся в некоторой точке. Получается, что сейчас нужно работать так, чтобы усиливать функцию релевантности, но не усиливать, а лучше ослаблять функцию "квоты".

С выводом согласен, а вот с параметрами не совсем, хотя могу и ошибаться. :) хотя некоторый вес доноров может участвовать в квоте.

seo_optimist:


Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...


Мало того, квоту с легкостью можно притянуть за уши к появлению кучи результатов в выдаче с одного сайта. Например, если раздел сайта не набирает нужной квоты, то показывается большая пачка страниц с этого сайта. Кстати, я уже тут писал, что по моему мнению квоту получает не сам сайт, а страницы или раздел (группа страниц объединенных одним гуглопризнаком)
)

Большая пачка с одного сайта скорее показывается тогда, когда остальные сайты выбрали квоту, а выдачу делать надо

---------- Добавлено 01.11.2012 в 19:49 ----------

vga1:


Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.

Вы Немножко не поняли данное утверждение.

Говорилось о том, что гугл каждому сайту назначает суточную квоту показов, независимо от позиций в серпе. И в случае если алгоритм гугл считает, что сайт может перебирать назначенную квоту, то начинаются манипуляции выдачей в течении дня. Причем все происходит по разному. Я наблюдал как сайт выбирал половину среднесуточного количества переходов до 9 утра, а иногда на этот же сайт до 10 утра с гугла не было ни одного перехода. Причем ctr был практически постоянный.

А сами суточные квоты для рассчитываются гораздо реже, я не думаю что чаще чем один раз в неделю-две.

А когда сайт настигает пингвин и резко понижается квота на показы, то начинается подгонка серпа на постоянной основе под данную квоту, чтобы количество показов не упиралось постоянно в этот потолок. Поэтому позиции падают абсолютно не логично с обычной точки зрения.

---------- Добавлено 01.11.2012 в 19:58 ----------

Slavomir:

Правильный ответ зависит от правильности постановки исходных данных. С чего вы решили так распределять факторы? С чего вы решили, что расчет квоты - это ресурсоемкая задача? У Гугла нет формальных апов выдачи (апдейты фильтров - это несколько иное) и, судя по показанным графикам и жалобам, выпадения и изменения квот (как в ту, так и в другую сторону) происходят не только в дни официальных апов фильтров. Значит, скорее всего, этот процесс постоянный. Чем больше факторов в нем участвует и чем более сложным образом, тем сложнее реинженерить этот механизм. Фактически, его уже совершенно невозможно реинженерить. При этом, ресурсоемкость задачи возрастает не сильно. Предположим, сканирует панда или пингвин сайт из ТОПа. Будет он при этом подсчитывать 5 параметров или 55 параметров - разница не велика.

Исходя из классических методов менеджмента, то любая функция направленная на контроль не несет добавленной стоимости для клиента и затраты на нее необходимо минимизировать. Добавленную стоимость для клиента в таком случае несет только алгоритм расчета serp. Поэтому я считаю, что даже если алгоритм не сильно затратен, то его не будут пересчитывать для сайта очень часто, по этой же причине нет необходимости в частых апдейтах пингвина и т. п.

Почему я предполагаю, что 90% веса квоты это внутренние параметры сайта? Потому что внешние параметры это ссылочное и оно влияет на serp, если ссылочное будет иметь достаточно большой вес на квоту показов, то не будет пересечений между "реальным" количеством показов и квотой. То есть вместе с выдачей в serp будет расти и квота.

Всего: 1876