seo_optimist

seo_optimist
Рейтинг
108
Регистрация
09.09.2009
dkameleon:
если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.
это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).


если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.
представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.

Поражаюсь всему вышесказанному ) С чего вы взяли что ВСЕ что ниже топа - шлак? И как будет вылезать самый шлак, если у него квота совсем никакая? И даже если вылезет на раз за тысячи, то погоды ему это не делает, попадается изредка шлак в топе.

К тому же могут вылезать новые сайты, которые совсем могут быть не шлаком и поэтому с повышенной квотой. А вы знаете, что новые сайты появляются постоянно.

dkameleon:

мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.
этим же легко объясняются изменения серпа втечение дня.

И работают они по разным алгоритмам эти ДЦ и при этом совершенно случайнейшим образом появляется явление северного сияния, то есть квота )

ZJIbIgeHb:

И вообще: Гипотезу потолков (квот), что трудно проверить? К примеру запрос "Кресты оптом"; сайт "prolesok.ru/catalog/kresti.php" (у меня он на 7 месте). Посетителей с Гугла у него не больше 20 в день в силу специфики темы и частотности запроса. Можно совместными силами устроить ему по 100-200 переходов или просмотров в течении часа. И если он не опустится по серпу в течении суток то идёт эта гипотеза лесом.

Если он не добирает свою квоты - очень долго придется мучить и не переходами а показами. Хотя квота может быть и на то и на другое

Top for the good:
Всегда хочется найти простое решение, но мое мнение, что не найдены простые ответы, как считаются ссылки и как определяется, качество контента. Это было бы важнее обдумать.

Хотя мое имхо, что пингвин - это рендом, а не ссылки. Причина исходит от них, как запускаемый механизм, но наказание по другим критериям. Поэтому вы и решили создать гипотезу, что может это объяснить, что же за критерии. Только в этой теме еще и не увидел ее, кроме как обсуждение ее. Самой то гипотезы и нету с чем работать.

Тут люди как раз пытаются найти причину фильтров. И вполне можно допустить это может быть квота. К примеру: у вас тыща страниц а прокачана только одна - это весьма подозрительно. Или другая крайность когда тыща страниц и все прокачаны одинаково.

Top for the good:
vagogrande, у вас слишком отдельная гипотеза, которая не имеет отношения к внешним или внутренним ссылками, в которых лежит причина пингвина. Тут все согласятся, что в обсуждении был найден ответ, на что смотреть, и что изучать нужно ссылочное. А что вы обсуждаете, кроме как трафик?

Вот вам скрин статы моего сайта для обсуждения....



Загадочные прямые вершины от Google.

Это сезонный, а не посуточный график, вы путаете пирожки с Амперами )

ZJIbIgeHb:

По Вордстату "кресты оптом" в России запрашивают 3 раза в месяц. В гугле думаю похожая статистика. Или Вы склонны к тому, что в формуле просчёта потолка (квоты) не входит частотность запроса? Таким образом квота для сайта "Производителя крестов" и "Сайта с бесплатными консультациями" может быть одинакова?

А почему нет? ) Если частотность запросов ниже квоты, расширяйте сайт

vagogrande:
Та же википедия.

Уверен, Википедия - самый зафильтрованный сайт, иначе по всем факторам она бы всегда первая была )

Top for the good:
Это реальный спад, от удара пингвина 24 апреля, просто на масштабах он скрытый - 40% НЧ запросов в аут и ряд ВЧ вниз, потом восстановились ВЧ путем продавливания ссылками с прямым вхождением, а не как тут пишут тута, тама и здеся!

Я вижу моя фраза прижилась, приятно ) Но на сезонной тематике, как вы сами понимаете сложно отследить тренд, ведь квота не только у вас, но и у ваших конкурентов, а поскольку откровенных ГС с точки зрения гугла, он в топе видеть не желает (сопли) то увеличивает вам квоту. Ведь раз она есть, то ее как то гугл должен определять?

Но у меня на этом месте возникла еще одна гипотеза насчет квоты, допускаю что она может быть не абсолютной а относительной.

Например, имеем блоки сайтов, максимально удовлетворяющие блоку запросов. Распределяем 100% квоты на этот блок запросов, где зафильтрованные получают меньше процента, а белые до от 10 и выше.

Я не пытаюсь убедить что так оно и работает, просто теория. Но если ее принять, то здесь можно объяснить и то, что иногда для ответа на запрос вылазит менее релевантная страница, потому что блок в котором была более релевантная выработал свою квоту. Наверное у вас тоже такое наблюдается в сезон.

vga1:
Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.

Аргумент насчет ресурсов, конечно же жесткий ) То что в Адвордсе квота считается вообще налету вы как то забыли ) Да и фигня все это...

Да и никогда я, как сторонник квоты не говорил что она вычисляется раз в сутки, тут говорили только что сутки это период. А ведь может быть квота и на неделю и на месяц. И для того что бы гугл мог балансировать топом достаточно элементарного счетчика и простого алгоритма, который будет смещать позиции выше или ниже в зависимости от того насколько выполнена эта квота от эталонной кривой на текущий момент времени. 5 строчек кода элементарных проверок больше - меньше, и получаем нужный нам корригирующий коэффициент к выдаче.

Мало того, квоту с легкостью можно притянуть за уши к появлению кучи результатов в выдаче с одного сайта. Например, если раздел сайта не набирает нужной квоты, то показывается большая пачка страниц с этого сайта. Кстати, я уже тут писал, что по моему мнению квоту получает не сам сайт, а страницы или раздел (группа страниц объединенных одним гуглопризнаком)

Разумеется квотой нельзя объяснить все, например земля вращается вокруг солнца вовсе по другим причинам )

Lor:
Я так и не понял, что Гугл хочет сказать этими
Большое количество страниц - это не преступление. Гугл все равно сам решает индексировать их или нет. Многие сайты вообще перестали пользоваться директивой "noindex".

Вообще, мое мнение: Гугл сделал ошибку, когда начал призывать вебмастеров фактически влиять на индексирование, под видом улучшения подачи контента. Я имею ввиду тэги nofollow, noindex, микроразметку, удаление линков и т.д. Это не задача производителей контента улучшать его подачу в поисковой системе. Эта задача самой поисковой системы.

Полностью согласен. Но могу предположить что они и движутся в этом направлении а теги и микроформаты служат не больше чем для отладки алгоритмов. Но стоит вспомнить что Гугл в первую очередь это коммерческая организация а не служба поиска полезной информации, поэтому чем больше информации они вытянут с вебмастеров, тем больше заработают )

Slavomir:

Что-то не припомню постов о получении таких предупреждений, а тем более, о таких фильтрах. В любом случае, в выдаче действенности пока не наблюдается.

Мне приходили, еще год назад, да и темы здесь вроде проскакивали. Сайт после этого ушел под фильтр. Хотите верьте - хотите нет, дело ваше.

Но такое же есть и в Бинге и в Яндексе, только не припомню что бы Яндекс в отличии от Гугла и Бинга об этом оповещал.

Slavomir:
Не уверен в этом. Скорее всего, для "потолка" есть некая формула в которую включены все факторы, их изменение во времени и с минимальными периодами времени, после которого каждый обнаруженный негативный фактор перестает оказывать влияние. Такая формула релевантности от обратного. Поэтому действия, предприянтые сейчас могут принести результат только через три месяца, а то и через полгода. Не забывайте, что Гугл хочет предотвратить манипуляцию выдачей, а значит не должен сиюминутно реагировать на любые произведенные изменения. А через полгода догадайся, что из сделанного оказало эффект, а что нет.

Здесь есть крупица истины. "Бонус новичка" это подтверждает как нельзя лучше. И бонус этот в отсутствии фильтров, или назовем из антиранжирующие факторы.

GlazAlmaz:
в то время было добавлено довольно много нового качественногго контента (более 50 статей объемом от 3к)... но трафик с гугла не появился на этот контент ))
ну и тематических ссылок может с десяток куплено

также хочу отметить, что после того увеличения "квоты" новый контент также добавлялся, но на графике - почти прямая линия показов

Наверное это как раз больше подтверждает теорию квоты чем ее опровергает.

Кстати палю еще тему. Гугл вычисляет и сопоставляет тренды появления нового качественного контента и новых качественных ссылок, но вот в выдачу подмешивает рандомно, что бы никто не догадался. Так что чем чаще будет у вас на сайте появляться новый качественный контент, тем быстрее и выше будет ранжироватся старый. Помоему это и есть пилюля для повышения квоты. Поэтому добавьте еще контента

Slavomir:
Фактор огромного количества страниц у сайта сейчас очень сильный. Гуглу осталось ввести фильтр на этот фактор, но это будет полный ППЦ. Хотя... Может быть введение графика "Not selected" в "Index Status" - это как раз подготовка к введению такого фильтра? Дают время владельцам сайтов посмотреть, проанализировать, подправить и сами поднастроют этот параметр, а потом как огорошат новым фильтром. Во всяком случае, Гугл планомерно ведет работу по истреблению факторов, позволяющих напрямую влиять на выдачу. Сначала панда, потом пингвин, потом домены с ключами. Посмотрим, что он срубит следующим.

Этот фильтр уже есть. И кстати, насчет огромного количества страниц гугл присылает предупреждение

padonakk:
Немного читал по этому вопросу. Очевидно, что EMD фильтр не такой уж и страшный, раз о нём нет стольких топов как о пингвине. Вот я и задумался, а как вообще понижается такой домен? Я себе представляю примерно так: допустим если один сайт на EMD домене, то он имел дополнительные плюшки именно из-за домена, но продвижение и работа над сайтов велась та же. Тот же сайт, но не на EMD домене не получает плюшки за имя, но работа ведётся та же, что и должна вестись.

Теперь же, когда EMD наказываются, то по сути снимаются лишь плюшки за имя и сайт становится равным сайту без EMD? Т.е. теперь над всеми сайтами надо работать одинаково и нет никаких доп. преимуществ? И понижение EMD вводит сайт на уровень того, как если бы оптимизация велась на обычном сайте? Или же идёт не понижение, а ЗАнижение типа как наказание? Выходит что если купить EMD, значит априори вводишь себя в неприятное положение когда знаешь, что будет наказание?

1. Если мои рассуждение далеки от истины, раскажите пожалуйста, кто в курсе как всё-таки наказывается EMD?
2. Стоит ли теперь регать новые EMD?
3. Наказывается ли EMD если сайт заточен под двусловный ключ, а домен содержит этот ключ но через дефис? Нейтрализует ли дефис словосочетание и гугл расценивает их как два разных слова? Например: ключ black horse, а домен black-horse.net

Спасибо!

EMD - это еще одна гирька на чаше Панды.

Если коефициент спамных технологий, которые включают фильтр Панда низкий то EMD будет вам плюсом, иначе минусом

sear4er:
Вижу мою тему раскручивают? )))

Мне она нравится Билли ) Не зря гугл получил патент на рандомную выдачу. Гугл ведь часто блефует )

easywind:
А он без этого письма никак незнал кто спамный, а кто нет? Или он только по большому количеству вдруг появившихся ссылок определяет спамность сайта совсем без учета остального?

Может не знал, а "догадывался". Может вообще не знал и не пытался, и весь этот Пингвин не более чем пошаговая стратетия по вытягиванию базы спамных сайтов из самих оптимизаторов. Возможно Пингвина нужно калибровать. А как в действительности работают алгоритмы Гугла, только ему известно

obizyana:
Ну это, собственно, доказывает, что санкции были ручные, а не алгоритмические. Большая часть ВМ никаких писем не получала при введении Пингвина. Так что этот случай немного не о Пингвине, как по мне.

А вот интересно действие кнопки как раз для массовых случаев.

Вышлите вы список спамных сайтов или нет, а ваш сайт выйдет из под санкций рандомно, как и куча других сайтов которые не вышлют это в Гугл.

Но зато теперь Гугл будет знать какие из сайтов спамные. А вебмастера будут бесплатно и быстро реагировать на запросы о снятии ссылок.

А если уже собираетесь слать этот файл, то что бы исключить его не целевое использование Гуглом добавьте домены Википедии и кого-то из топовых конкурентов, даже если они на вас не ссылаются )

Есть новостные агенства которые делают новости, а есть те кто печатает новости. Последние вообще по сути агрегаторы, и они составляют ИМХО более 99%, и не должны претендовать ни на что. Только вот по какому механизму правительство собирается отделять зерна от плевел. Уверен, что если бы Гугл задал этот вопрос французы бы сдулись

Slavomir:
Вы думаете, что добавить такие страницы в BL - хорошая идея? Это уже реально попахивает чистосердечным признанием. Закладки на мой сайт сделаны реальными пользователями и изредка кто-то по ним переходит. У меня никогда не появится мысли банить такие ссылки. А как к вашему действию отнесется Гугл - вопрос открытый.

Что бы не палиться предлагаю в плюс ко всему добавлять Википедию )

Всего: 775