- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Не уверен в этом. Скорее всего, для "потолка" есть некая формула в которую включены все факторы, их изменение во времени и с минимальными периодами времени, после которого каждый обнаруженный негативный фактор перестает оказывать влияние. Такая формула релевантности от обратного. Поэтому действия, предприянтые сейчас могут принести результат только через три месяца, а то и через полгода. Не забывайте, что Гугл хочет предотвратить манипуляцию выдачей, а значит не должен сиюминутно реагировать на любые произведенные изменения. А через полгода догадайся, что из сделанного оказало эффект, а что нет.
Мне все таки кажется, что все немного проще.
Серп это внешние факторы (преимущественно)
Квоты это больше внутренние факторы и их расчет занимает значительные ресурсы и гугл их пересчитывает не каждый день и даже не раз в неделю
И когда эти показатели друг другу не противоречат, то все хорошо.
Про потолок и факторы.
Сайт под пингвином.
Но к концу августа и середине сентября траф по НЧ начал было немного идти в рост. Видимо сезон наступает.
Числа 24 сентября ставим на магазин комментарии от VK, 29 сентября на сайте становится 31тыс дублей метаописаний, так как страницы с детальным описанием продублировало страницами с параметром контакта.
1 октября срезало трафик с 200 в день с Гугла, до 5-7 чел в день. Траф весь был с НЧ так как сайт под пингвином с апреля и другие запросы в *опе
Закрыли этот параметр в роботсе, ждем уже ВМТ пишет, что дублей осталось 2800, пока не вернул.
Если вернет те остатки что были в сентября, то можно сказать что один из параметров будут спален.
З.Ы. в сентябре дублей заголовков было около 300
Я так и не понял, что Гугл хочет сказать этими
Большое количество страниц - это не преступление. Гугл все равно сам решает индексировать их или нет. Многие сайты вообще перестали пользоваться директивой "noindex".
Вообще, мое мнение: Гугл сделал ошибку, когда начал призывать вебмастеров фактически влиять на индексирование, под видом улучшения подачи контента. Я имею ввиду тэги nofollow, noindex, микроразметку, удаление линков и т.д. Это не задача производителей контента улучшать его подачу в поисковой системе. Эта задача самой поисковой системы.
Полностью согласен. Но могу предположить что они и движутся в этом направлении а теги и микроформаты служат не больше чем для отладки алгоритмов. Но стоит вспомнить что Гугл в первую очередь это коммерческая организация а не служба поиска полезной информации, поэтому чем больше информации они вытянут с вебмастеров, тем больше заработают )
Что-то не припомню постов о получении таких предупреждений, а тем более, о таких фильтрах. В любом случае, в выдаче действенности пока не наблюдается.
Мне приходили, еще год назад, да и темы здесь вроде проскакивали. Сайт после этого ушел под фильтр. Хотите верьте - хотите нет, дело ваше.
Но такое же есть и в Бинге и в Яндексе, только не припомню что бы Яндекс в отличии от Гугла и Бинга об этом оповещал.
Не уверен в этом. Скорее всего, для "потолка" есть некая формула в которую включены все факторы, их изменение во времени и с минимальными периодами времени, после которого каждый обнаруженный негативный фактор перестает оказывать влияние. Такая формула релевантности от обратного. Поэтому действия, предприянтые сейчас могут принести результат только через три месяца, а то и через полгода. Не забывайте, что Гугл хочет предотвратить манипуляцию выдачей, а значит не должен сиюминутно реагировать на любые произведенные изменения. А через полгода догадайся, что из сделанного оказало эффект, а что нет.
Здесь есть крупица истины. "Бонус новичка" это подтверждает как нельзя лучше. И бонус этот в отсутствии фильтров, или назовем из антиранжирующие факторы.
в то время было добавлено довольно много нового качественногго контента (более 50 статей объемом от 3к)... но трафик с гугла не появился на этот контент ))
ну и тематических ссылок может с десяток куплено
также хочу отметить, что после того увеличения "квоты" новый контент также добавлялся, но на графике - почти прямая линия показов
Наверное это как раз больше подтверждает теорию квоты чем ее опровергает.
Кстати палю еще тему. Гугл вычисляет и сопоставляет тренды появления нового качественного контента и новых качественных ссылок, но вот в выдачу подмешивает рандомно, что бы никто не догадался. Так что чем чаще будет у вас на сайте появляться новый качественный контент, тем быстрее и выше будет ранжироватся старый. Помоему это и есть пилюля для повышения квоты. Поэтому добавьте еще контента
Мне все таки кажется, что все немного проще.
Серп это внешние факторы (преимущественно)
Квоты это больше внутренние факторы и их расчет занимает значительные ресурсы и гугл их пересчитывает не каждый день и даже не раз в неделю
И когда эти показатели друг другу не противоречат, то все хорошо.
Правильный ответ зависит от правильности постановки исходных данных. С чего вы решили так распределять факторы? С чего вы решили, что расчет квоты - это ресурсоемкая задача? У Гугла нет формальных апов выдачи (апдейты фильтров - это несколько иное) и, судя по показанным графикам и жалобам, выпадения и изменения квот (как в ту, так и в другую сторону) происходят не только в дни официальных апов фильтров. Значит, скорее всего, этот процесс постоянный. Чем больше факторов в нем участвует и чем более сложным образом, тем сложнее реинженерить этот механизм. Фактически, его уже совершенно невозможно реинженерить. При этом, ресурсоемкость задачи возрастает не сильно. Предположим, сканирует панда или пингвин сайт из ТОПа. Будет он при этом подсчитывать 5 параметров или 55 параметров - разница не велика. Основное время уходит на само сканирование.
Главное для Гугла, чтобы этот механизм не давал сколь ни будь быстрой реакции на осуществленные изменения. Если по каждому потенциально положительному действию ждать по нескольку месяцев для оценки реакции, быстро протянешь ноги. А если ждать не будешь, то потом уже и не определишь, что дало результат, а если и станешь определять по старым SEOшным принципам, то, скорее всего, ошибешься. Так что, ИМХО, дело совсем не в ресурсоемкости.
Вообще-то, "сторонники теории квот (потолка)"
уже прям секта какая-то :)
Если предположить, что сайты в серпе вычерпывают свою квоту, то они должны сваливаться вниз, освобождая место другим сайтам.
где-то упоминали, что сайт с утра в топе, а к вечеру сваливается.
а хоть у кого-то есть сайты, которые к вечеру вылазят, а утром опять в *опе?
кстати, так по логике к ночи должен вылазить сам шлак в топе.
в топике уже приводили примеры, что выбор квоты неравномерный в течение дня, т.е. сайтам могут оставить на вечер, например 20% квоты ))
в топике уже приводили примеры, что выбор квоты неравномерный в течение дня, т.е. сайтам могут оставить на вечер, например 20% квоты ))
Сторонники квоты как раз доказывали обратное, что квота считается раз в сутки, на мой аргумент, что у гугла не хватит мощностей (да и желания, имхо, фигней страдать 😂), пересчитывать квоты каждого сайта в выдаче на каждый запрос пользователя, чтоб во время среагировать на превышение квоты.
можно считать квоту хоть раз в неделю, это не мешает её распределять в течение дня неравномерно...
если квота 1000 просмотров на сутки, то можно выдать, например, по 250 просмотров утром, днем, вечером и ночью - в этом случае загаживание топа явным шлаком не должно произойти
PS это просто пример, я не знаю, как реально происходит распределение
на каждый запрос, вероятно, квота и не нужна, когда есть общая для всего сайта (можно назвать это - траст)... когда весь "траст" выбран, сайт понижается по всем запросам; я так понял доводы сторонников "теории квот"
уже прям секта какая-то :)
Если предположить, что сайты в серпе вычерпывают свою квоту, то они должны сваливаться вниз, освобождая место другим сайтам.
где-то упоминали, что сайт с утра в топе, а к вечеру сваливается.
а хоть у кого-то есть сайты, которые к вечеру вылазят, а утром опять в *опе?
кстати, так по логике к ночи должен вылазить сам шлак в топе.
Предполагается, что сайту изначально определяются страницы выдачи по тем или иным релевантным ему запросам так, чтобы обеспечивалось приблизительно нужное число показов. Если тенденция использования квоты идет в сторону перебора, то сайт опускается на какое-то количество страниц вниз. По своему сайту такие постоянные пляски сайта в выдаче наблюдал многократно, причем выше или ниже находится сайт, напрямую зависит от времени суток. В обратную сторону это скорее всего не работает, т.е. если сайт не добирает свою квоту, он должен заслужить более высокие позиции "обычным" способом. Знать бы, в чем он заключается, когда, что ни сделай, напорешься на фильтр.
уже прям секта какая-то :)
Если предположить, что сайты в серпе вычерпывают свою квоту, то они должны сваливаться вниз, освобождая место другим сайтам.
где-то упоминали, что сайт с утра в топе, а к вечеру сваливается.
а хоть у кого-то есть сайты, которые к вечеру вылазят, а утром опять в *опе?
кстати, так по логике к ночи должен вылазить сам шлак в топе.
Я наблюдал выпадение страниц из выдачи по НЧ. Они в самом деле распределяются в течение дня.
Наблюдал как сайт делал 50% трафика до 9 утра, а следующищи переход был после 12 дня.