- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Если считать, что апдейт завершился и для англоязычных ресурсов, то наблюдаю следующие результаты:
Гугла присвоил PR0 или вообще выкинул из кэша страницы третьего уровня с "недостаточным контентом". То есть ситуация выглядит так: страница "второго уровня" с PR3-4, на которой не более 30 внутренних ссылок и ни одной внешней, ссылается на страницу "третьего уровня" на которой мало текста (у меня сайты по живописи - на страницах третьего уровня обычно единственная картинка большого формата, ее название ну и пара внутренних ссылок). Все страницы такого вида Гугл перестал у меня засчитывать - либо вообще нет в кэше, либо есть в кэше но PR=0.
Ситуация массовая, на разных сайтах.
Что-то подобное наблюдаю и на страницах, заполненных внешними линками: с большой вероятностью Гугл им присваивает PR=0 при том, что на них ссылается страница более высокого уровня с PR=4, на которой не более 30 ссылок.
Такие проблемы у меня одного? Чем такую ситуацию лечить?
Да , замечал что то похожее, но в несколько другом ракурсе.
Если на сайте, достаточно большое сквозное навигационное меню по сайту, а на самих страницах стоит текст по объему меньший или равный объему навигационного меню. То, google, считат эти страницы похожими. И похоже выкидывает из базы.
Например призапросе по одному моему сайту site:mysite.ru , он показывает 8 страниц и внизу пишет
"Чтобы показать Вам наиболее значимые результаты, мы опустили некоторые, очень похожие на 8 уже показанных.
Если Вы хотите, можно повторить поиск, включив опущенные результаты."
после просмотра опущенных результатов показывает уже 32 страницы (в их число входит главная страница, и страницы разделов, у меня навигационное меню по сайту состоит из этих 30 ссылок на разделы).
Хотя пол года назад показывал что на сайте 250 страниц. Получается 220 страниц с небольшими статьями выкинул из базы. Жаль.
Я думаю лечится это более жирными ссылками на морду, или постными ссылками на эти внутренние страницы, которые вывалились из базы.
по моему вы о разном говорите - один про англоязычные ..другой по русскоязычным
Да, д.Коля, согласен, несколько о разном, (у меня русскоязычный сайт),
но проблема думаю одна, если мало текста на странице, это плохо. :)
Хотя похоже более жирные ссылки не помогут, у ArtGallery на главной 5 или 4 как я понял. У меня на главной тоже 3, раньше считалось, что это достаточно что бы проиндексировать сайт на глубину в 3 клика.
Похоже действительно фильтр на количество контента.
Если на сайте, достаточно большое сквозное навигационное меню по сайту, а на самих страницах стоит текст по объему меньший или равный объему навигационного меню. То, google, считат эти страницы похожими. И похоже выкидывает из базы.
Да, это в точности то о чем я говорю:
если на странице мало текста или если на странице текста количество слов в Anchor text превосходит количество обычных слов на странице - страница вылетает из кэша.
Видимо считается: если мало текста - тебе не место в кэше. И если текст близок к другим страницам сайта - тоже выкидывает из кэша (а у меня сильно не разбежишься, технические параметры картин описываются одними и теми же английскими словами словами). Разные Title, description и пара слов в <H1> не спасают.
Кстати, раньше такого эффекта не наблюдал - все нормально индексировалось.
у нас есть разновидность доров у которых кроме тайтла и дискрипшена вообще нет никакого контента - нормально в топ вылазят
Да, Гугль сильно "почистил" кэш от дублей.
Так этого и следовало ожидать.
Хотя похоже более жирные ссылки не помогут, у ArtGallery на главной 5 или 4 как я понял.
У меня на морде "пятерка", сайт входит в TOP100.000 по Alexá.com
На тех моих сайтах, где на мордах "тройки"-"четверки" - там вообще часто все повылетало: одна морда показывает PR отличный от нуля, половина страниц второго уровня повылетала из кэша, на оставшихся PR=0, а третий уровень не индексируется.
Раньше я специально размазывал контент тонким слоем по сайту, чтобы страниц по больше получалось, придётся видимо от этого отказаться. И накладывать контент на страницу "толтыми кусками".
А на этом сайте (который гугль почистил от дублей), придётся видимо выполнить модернизацию навигационного меню, каким то образом , чтобы оно уменьшилось, может поможет.
у меня сайты по живописи - на страницах третьего уровня обычно единственная картинка большого формата, ее название ну и пара внутренних ссылок
а из images.google эти картинки тоже исчезли?
Был поставлен эксперимент на то как Гугл выявляет дублирование контента. Эксперимент показал, что ооооооооочень хорошо выявляет! И судя по всему взялся он за это массово. Вот и получается, что возможно немного переборщил Гугл и решил, что страницы где мало контента "похожи" друг на друга..... А вообще ситуация с чиской базы ИМХО будет иметь продолжение.
П.С. Фильтр срабатывает не сразу..... Поэтому страницы сначала всплывают в СЕРПе, а потом улетают за сотню.