- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Объяснение простое, низкий ссылочный вес + низкая просматриваемость данных страниц.
в смысле sitemap переименовать что-ли?
Нет, PNikolai. Это вообще не должен быть sitemap - Google не любит технические страницы и в состоянии их правильно определять. "Посадочной" страницей должна быть, к примеру, уникальная статья с сылками на страницы из supplemental results.
вообще что-то не понятно, смотрел один сайтик который уже достаточно давно в сети и неуника там просто нет.. сайт казахстанских новостей причем находится в зоне su. В supplemental-е 90% страниц, как это обьяснить?
Что не понятно-то? Кто Вам сказал, что фильтр supplemental results накладывается за неуникальный материал? Это, в первую очередь, фильтр за дублирующийся контент. Под фильтр может попасть сайт со сплошь уникальным материалом, если оный повторяется 200 раз на разных страницах сайта. Новости - это, собственно говоря, и есть такой дублирующийся материал. Кроме того надо смотреть какой PR у страниц этого новостного сайта. Если PR низкий, значит нет сильных бэков, значит у Google нет особого доверия к такому сайту. Нарастите ссылочную массу с высоким PR и выйдите из-под фильтра.
Объяснение простое, низкий ссылочный вес + низкая просматриваемость данных страниц.
Это только ваши догадки или еще кто-то разделяет подобное мнение про посещаемость конкретных страниц?
далеко не всегда в supplemental попадает тыренный контент, там может оказаться и наигационная страница и даже самая уникальная статья.
Абсолютно согласен, в частности так и происходит.
Это только ваши догадки или еще кто-то разделяет подобное мнение про посещаемость конкретных страниц?
Это правда жизни. На не посещаемых страницах и PR может не отображаться, что зачастую и происходит. Скажу более того. Посещаемость страницы для гугла так же важна, как и беки. У меня на сайтах много страниц сидят в основном индексе не имея ни единого бека. Люди ищут через внутреннюю форму на сайте, страницы с результатами поиска индексируются.
Сеодром, далеко не всегда в supplemental попадает тыренный контент, там может оказаться и наигационная страница и даже самая уникальная статья.
Более того, одна и та же страница по одним ключевикам может быть в соплях, а по другим - в основной выдаче.
Тут нужно ставить вопрос не как выйти из соплей, а как не словить бан. В последнее время сайты с неуником Гугел начал активно банить не взирая на ПР и внешние ссылки. Так что переписывайте лучше контент.
У меня на сайтах много страниц сидят в основном индексе не имея ни единого бека. Люди ищут через внутреннюю форму на сайте, страницы с результатами поиска индексируются.
И после этого страницы попадают в индекс?
Да еще и на первые позиции???
Каким чудом? Может тогда проще сидеть и искать через внутреннюю форму и нажимать на внутрение страницы на сайте и так все вылезет в индекс?
Если контента гора, а желания\возможности его переписывать нету, то можно автоматизировать - прогнать через синонимизатор. Это также помогает. Но, естественно, такой метод не подходит для СДЛ, так как читабельность "слегка" уменьшается. :)
Обнаружил, что в соплях 90% страниц на моем СДЛ. Контент - глубокий рерайт, в яше и раме все ок.