- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
VK приобрела 70% в структуре компании-разработчика red_mad_robot
Которая участвовала в создании RuStore
Оксана Мамчуева
Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пол-года назад решил попробовать провести один эксперимент. Поднял блог на котором начал размещать уникальный контент, тематика не относится к высокочастотным запросам. Статьи писал сам, объем каждой статьи разный. Обновления делал не ритмично. В результате собралось более 30 статей. СПЕЦИАЛЬНО не делал на блог никаких внешних ссылок. В результате все страницы блога, за исключением главной находятся в суплементал резултс. Напрашивается вопрос: зачем гугел рекомендует размещать уникальный контент если ему до него никакого дела по сути нет?
Тут дело не только в неуникальности.
Хорошие ссылки на ваш блог с сильных ресурсов изменят положение.
:) Ну а как ты представляешь иные советы?
- Наращивайте ссылки, до контента по барабану и тогда вы будете всегда при траффике и нам все равное что у нас будет в выдаче ?
Конечно советуют качественный контент генерить. Да и качественный контент сам себя раскучивает когда сайт знают и на него ссылаются для этого и нужны социалки.
Ставь ссылки , вылезешь из соплей.
...Напрашивается вопрос: зачем гугел рекомендует размещать уникальный контент если ему до него никакого дела по сути нет?
пациента в студию можно? или в личку:)
отвечу на ваш вопрос, ну по крайней мере постараюсь:)
Сопли могли потечь и из-за повторяющейся из страницы в страницу навигации. Особенно, если навигации много, а контента мало.
А с чего вы взяли, что уникальность контента - панацея от supplemental? Это лишь один из факторов. Авторитетность ресурса и наличие ссылок на страницы еще никто не отменял. На свежих сайтах у меня стабильно supplemental до тех пор, пока не прогнать их по социалкам и каталогам статей. На старых даже транслируемые тексты не всегда попадают.
Поверьте, никакой избыточной оптимизации нет. Конент писался из расчета не менее 200 слов. Про внешние ссылки как лекарство от соплей я знаю.
Меня другое удивляет. Вот поднял себе человек блог. Пишет в поте лица себе какие-то материалы. В результате заходит к нему вебмастер, копирует статьи к себе на сайт (сайт с ПР, которой получен тупым наращиванием ссылок) и ловит на него посетителей из гугля, так как на сайте автора эти статьи находятся в соплях. Выходит, что ссылки рулят и нееб@т!
Выходит, что ссылки рулят и нееб@т!
+1 😂
Подразумевается, что если авторский материал представлет интерес, на него будут ссылаться.
Меня другое удивляет. Вот поднял себе человек блог. Пишет в поте лица себе какие-то материалы. В результате заходит к нему вебмастер, копирует статьи к себе на сайт (сайт с ПР, которой получен тупым наращиванием ссылок) и ловит на него посетителей из гугля, так как на сайте автора эти статьи находятся в соплях. Выходит, что ссылки рулят и нееб@т!
Конкретные примеры есть? А то я таких страшилок миллион уже читал, а примеры так никто и не показал. И как это злобный вебмастер найдет блог потного человека, раз у того все в supplemental и ссылок нет?)
P.S. 200 слов - это много?
Ща заглаголю истину:)
переводил только что наспех(статья относится непосредственно к вордпрессу), но не сомневаюсь, что и с другими движками есть такие проблемы:
Представьте, что вы паук(ака crawler), который гоняет по инету и индексит все страницы на которые заходит(как он это делает не важно).
так вот вы паук, и как вы думаете:
1. у меня есть только определённое время, что бы заглянуть и проиндексить ваш сайт
2. обычно, но не всегда, я захожу на ваш сайт через main(home)page.
3. моя работа заключается в том, что бы сохранить весь контент который я увидел на странице, отправить "на базу" и дальше по любой ссылке с этой страницы уйти, что бы сделать то же самое со следующей страницей:)
ВордПресс(ВП) (как и многие движки) сделан для ЧЕЛОВЕКА и в ВП есть огромная ошибка, которая заставляет поисковых пауков включать страницы вашего блога в Дополнительные результаты!
Так вот теперь собственно проблема - Дополнительный Результат(сопли, supplemental result и т.д.) на блоге.
ВП сделан так, что он помещает один и тот же контент в разные места вашего блога,такие как:
- в категории к которой относится статья
- в архиве за месяц
- некоторе время эта статья будет висеть на главной, пока не наберётся достаточное количество статей, что бы она исчезла
- так же статья будет торчать в RSS'ах
- ещё одно место, но наверняка не последнее - статья будет доступна как отдельный пост
Отсюда вывод - у нас есть как минимум 5 дублированных статей, вот как раз таки это и будет duplicate content.
И в самом конце статьи говорится о том, что нужно всего лишь скачать плагин, который подсказывает пауку поисковой машины, куда стоит идти, а куда не стоит:)
Источник статьи и плагин там же
Ещё есть мнение, что у Вас на блоге Одинаковые Тайтлы и Дески, тоже отличный способ вылететь в сопли:)
LTSR, спрашиваеться, как этот хороший сайт найдёться? Как его найдёт злой вебмастер?