- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Да уж ну и тенденция
если гугл принудительно откладывает показы на вечер, то при любом случайно возросшем человекопотоке ему необходимо чем-то заполнить места в серпе.
это или очевидный шлак, не соответствующи запросам или же сами сайты (тогда наступает превышение квоты).
если один сайт опускается вниз, то друой идет вверх и следовательно исчерпывает квоту раньше.
представьте случайный лавинный рост трафика по какому-то запросу. это по логике квот должно двигать сайты из топа вниз, а на их место должен выползать шлак.
Поражаюсь всему вышесказанному ) С чего вы взяли что ВСЕ что ниже топа - шлак? И как будет вылезать самый шлак, если у него квота совсем никакая? И даже если вылезет на раз за тысячи, то погоды ему это не делает, попадается изредка шлак в топе.
К тому же могут вылезать новые сайты, которые совсем могут быть не шлаком и поэтому с повышенной квотой. А вы знаете, что новые сайты появляются постоянно.
мне это проще объясниь рассинхроном данных по датацентрам и тем, что в одно утро балансеры направили трафик на один ДЦ, а вдругое утро на другой.
этим же легко объясняются изменения серпа втечение дня.
И работают они по разным алгоритмам эти ДЦ и при этом совершенно случайнейшим образом появляется явление северного сияния, то есть квота )
И вообще: Гипотезу потолков (квот), что трудно проверить? К примеру запрос "Кресты оптом"; сайт "prolesok.ru/catalog/kresti.php" (у меня он на 7 месте). Посетителей с Гугла у него не больше 20 в день в силу специфики темы и частотности запроса. Можно совместными силами устроить ему по 100-200 переходов или просмотров в течении часа. И если он не опустится по серпу в течении суток то идёт эта гипотеза лесом.
Если он не добирает свою квоты - очень долго придется мучить и не переходами а показами. Хотя квота может быть и на то и на другое
Всегда хочется найти простое решение, но мое мнение, что не найдены простые ответы, как считаются ссылки и как определяется, качество контента. Это было бы важнее обдумать.
Хотя мое имхо, что пингвин - это рендом, а не ссылки. Причина исходит от них, как запускаемый механизм, но наказание по другим критериям. Поэтому вы и решили создать гипотезу, что может это объяснить, что же за критерии. Только в этой теме еще и не увидел ее, кроме как обсуждение ее. Самой то гипотезы и нету с чем работать.
Тут люди как раз пытаются найти причину фильтров. И вполне можно допустить это может быть квота. К примеру: у вас тыща страниц а прокачана только одна - это весьма подозрительно. Или другая крайность когда тыща страниц и все прокачаны одинаково.
vagogrande, у вас слишком отдельная гипотеза, которая не имеет отношения к внешним или внутренним ссылками, в которых лежит причина пингвина. Тут все согласятся, что в обсуждении был найден ответ, на что смотреть, и что изучать нужно ссылочное. А что вы обсуждаете, кроме как трафик?
Вот вам скрин статы моего сайта для обсуждения....
Загадочные прямые вершины от Google.
Это сезонный, а не посуточный график, вы путаете пирожки с Амперами )
По Вордстату "кресты оптом" в России запрашивают 3 раза в месяц. В гугле думаю похожая статистика. Или Вы склонны к тому, что в формуле просчёта потолка (квоты) не входит частотность запроса? Таким образом квота для сайта "Производителя крестов" и "Сайта с бесплатными консультациями" может быть одинакова?
А почему нет? ) Если частотность запросов ниже квоты, расширяйте сайт
Та же википедия.
Уверен, Википедия - самый зафильтрованный сайт, иначе по всем факторам она бы всегда первая была )
Это реальный спад, от удара пингвина 24 апреля, просто на масштабах он скрытый - 40% НЧ запросов в аут и ряд ВЧ вниз, потом восстановились ВЧ путем продавливания ссылками с прямым вхождением, а не как тут пишут тута, тама и здеся!
Я вижу моя фраза прижилась, приятно ) Но на сезонной тематике, как вы сами понимаете сложно отследить тренд, ведь квота не только у вас, но и у ваших конкурентов, а поскольку откровенных ГС с точки зрения гугла, он в топе видеть не желает (сопли) то увеличивает вам квоту. Ведь раз она есть, то ее как то гугл должен определять?
Но у меня на этом месте возникла еще одна гипотеза насчет квоты, допускаю что она может быть не абсолютной а относительной.
Например, имеем блоки сайтов, максимально удовлетворяющие блоку запросов. Распределяем 100% квоты на этот блок запросов, где зафильтрованные получают меньше процента, а белые до от 10 и выше.
Я не пытаюсь убедить что так оно и работает, просто теория. Но если ее принять, то здесь можно объяснить и то, что иногда для ответа на запрос вылазит менее релевантная страница, потому что блок в котором была более релевантная выработал свою квоту. Наверное у вас тоже такое наблюдается в сезон.
Вопрос к vagogrande. А может быть гугл не пресекает возможность вебмастера манипулировать выдачей, а занимается несколько иной задачей? Поясню.
Каждый день в каждой тематике появляется по несколько десятков сайтов. Одни из них СДЛ, другие ГС. У каждого свои особенности. Каждый хочет заработать хлеб. Но ТОП-10 всего лишь один! И чтобы дать каждому заработать на хлеб или вообще исключить появления сайтов нормальных сайтов, на которых 0 посетителей, на другом 1000000, гугл каждый день, 7 дней в неделю, 4 недели в месяц таскает в топ-10 - топ-1000 разные сайты. как считаете?
Вопрос к vagogrande. А может быть гугл не пресекает возможность вебмастера манипулировать выдачей, а занимается несколько иной задачей? Поясню.
Каждый день в каждой тематике появляется по несколько десятков сайтов. Одни из них СДЛ, другие ГС. У каждого свои особенности. Каждый хочет заработать хлеб. Но ТОП-10 всего лишь один! И чтобы дать каждому заработать на хлеб или вообще исключить появления сайтов нормальных сайтов, на которых 0 посетителей, на другом 1000000, гугл каждый день, 7 дней в неделю, 4 недели в месяц таскает в топ-10 - топ-1000 разные сайты. как считаете?
Расскажите эту теорию тем, кто вылетел даже по своему бренду.
Вопрос к vagogrande. А может быть гугл не пресекает возможность вебмастера манипулировать выдачей, а занимается несколько иной задачей? Поясню.
Каждый день в каждой тематике появляется по несколько десятков сайтов. Одни из них СДЛ, другие ГС. У каждого свои особенности. Каждый хочет заработать хлеб. Но ТОП-10 всего лишь один! И чтобы дать каждому заработать на хлеб или вообще исключить появления сайтов нормальных сайтов, на которых 0 посетителей, на другом 1000000, гугл каждый день, 7 дней в неделю, 4 недели в месяц таскает в топ-10 - топ-1000 разные сайты. как считаете?
Над этим уже думали, по любому оно так должно быть, иначе шансов у белых СДЛ было бы 0, а такие встречаются
Над этим уже думали, по любому оно так должно быть, иначе шансов у белых СДЛ было бы 0, а такие встречаются
Ну, это типа "бонуса новичка". Вопрос в том, как это может быть устроено. Если квота существует, то сайту выдается некая первоначальная квота. Внутренние факторы должны делать свое дело, но как быть с ссылочным? Получается, Гугл должен дать еще что-то, чтобы компенсировать отсутствие ссылочного у сайта.
Мля! Забыл обратить внимание на главное! По моему основному запросу, по которому крутился проект и после пингвина по которому вылетел - выдача стала адекватной! Перестали вылетать дубли ссылок на один и тот же сайт. ТО есть нет сейчас той херни, что в серпе один сайт мог занимать 10 (а то и больше) позиций по порядку.
То есть этот глюк, который начался с момент введения их пингвина наконец устранен (не знаю, целиком или частично)
Ну, это типа "бонуса новичка". Вопрос в том, как это может быть устроено. Если квота существует, то сайту выдается некая первоначальная квота. Внутренние факторы должны делать свое дело, но как быть с ссылочным? Получается, Гугл должен дать еще что-то, чтобы компенсировать отсутствие ссылочного у сайта.
Мне больше по душе теория где любой сайт прошедший "бонус новичка" попадает под фильтр ) Например включается фильтр "нет ссылок" )) или "слишком мало ссылок" или "плохие ссылки", или "панда", а они в свою очередь всего навсего высчитывают новую квоту, каждый откусывает свой кусок. Отсюда и появляются крики от школоты: мой сайт -5 -25 -50 -100 -много
Кстати насчет "бонуса новичка", при очень серьезном добавлении нового, или при смене контента или адресов страниц, при переадресации домена, он включается снова на некоторое время.
Так что я почти на 100% уверен что "бонус новичка" = "бонус нет фильтров"
Вопрос к vagogrande. А может быть гугл не пресекает возможность вебмастера манипулировать выдачей, а занимается несколько иной задачей? Поясню.
Каждый день в каждой тематике появляется по несколько десятков сайтов. Одни из них СДЛ, другие ГС. У каждого свои особенности. Каждый хочет заработать хлеб. Но ТОП-10 всего лишь один! И чтобы дать каждому заработать на хлеб или вообще исключить появления сайтов нормальных сайтов, на которых 0 посетителей, на другом 1000000, гугл каждый день, 7 дней в неделю, 4 недели в месяц таскает в топ-10 - топ-1000 разные сайты. как считаете?
Не наблюдается. Да и смысла в этом нет. Ведь Добавленная стоимость для клиента от ПС получить максимально быстро полный ответ на свой запрос и гуглу нет никакого дела на то что какой-то сайт не имеет трафика. А чтобы дать возможность каждому заработать есть adwords. Вторая задача пресечь ситуацию "car insurance" слишком репутация гугла в тот момент пострадала и манипуляция со стороны вебмастеров как раз часто портит выдачу. ТОП-10 только один, но есть нч и там гугл пускает "слабые", но "нормальные" сайты
---------- Добавлено 03.11.2012 в 00:26 ----------
Мля! Забыл обратить внимание на главное! По моему основному запросу, по которому крутился проект и после пингвина по которому вылетел - выдача стала адекватной! Перестали вылетать дубли ссылок на один и тот же сайт. ТО есть нет сейчас той херни, что в серпе один сайт мог занимать 10 (а то и больше) позиций по порядку.
То есть этот глюк, который начался с момент введения их пингвина наконец устранен (не знаю, целиком или частично)
Вопрос в количестве циклов. Чем больше будет обновлений пингвина, тем более адекватной будет выдача с точки зрения пользователя. Сайты выскочившие в топ после первого обновления, перебрали свою квоту и попали под проверку. :)
---------- Добавлено 03.11.2012 в 00:46 ----------
Мне больше по душе теория где любой сайт прошедший "бонус новичка" попадает под фильтр ) Например включается фильтр "нет ссылок" )) или "слишком мало ссылок" или "плохие ссылки", или "панда", а они в свою очередь всего навсего высчитывают новую квоту, каждый откусывает свой кусок. Отсюда и появляются крики от школоты: мой сайт -5 -25 -50 -100 -много
Кстати насчет "бонуса новичка", при очень серьезном добавлении нового, или при смене контента или адресов страниц, при переадресации домена, он включается снова на некоторое время.
Так что я почти на 100% уверен что "бонус новичка" = "бонус нет фильтров"
Я не думаю, что фильтры "нет ссылок" или "слишком мало ссылок" существуют в природе. а вот отсутствие в течение некоторого времени каких либо фильтров на снижение квоты для новых сайтов верю. Дается время на исправление косяков типа "дубли" или "переспам", но при этом можно получить "ссылочный взрыв"