- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Предлагаю вашему вниманию перевод обзора с seroundtable темы “свежести” контента. Уверен, что многим будут интересны мысли и выводы, сделанные авторами обзора и сообщений на форуме. Да, в первую очередь тема касается Гугла, но остальные поисковики имеют тенденцию перенимать все лучшее с Гугла, так что инетерсно всем!
Гугл, как и любой другой серьезный поисковик, постоянно усовершенствует и перенастраивает свои алгоритмы ранжирования, стараясь предоставлять пользователям максимально релевантную информацию. Оптимизаторы постоянно экспериментируют со своими сайтами-жертвами, пытаясь уловить эти изменения в алгоритмах Гугла и смену приоритетов. Это, конечно, не космические разработки, но все же довольно сложная с большой неопределенностью область исследований, где в долгосрочной перспективе только наиболее творческие команды оптимизаторов будут держать руку на пульсы новейших технологий, что и позволит им держать лучшие позиции по самым конкурентным запросам.
Один из отцов-основателей WebmasterWorld, известный как Tedster, пытается анализировать мартовские изменения в Гугле. Так вот он выдвигает интересную теорию:
Tedster уверен, что “свежесть” (контента и возможно ссылок) является довольно важным компонентом в борьбе за топовые позиции в Гугле. И сообщество, похоже, с ним согласно:
Если в двух словах, то я склонен согласиться с тем, что обновляемый контент становится конкурентнее, даже в противостоянии с хорошо закрепившимися доменными зонами типа .gov и .edu.
Опубликовано тут.
Я бы добавил, что степень влияния "свежести" зависит от тематики.
Хм, а вот интересно, в той же вики есть вещи которые по определению не будут меняться, и что, получается информация уже не интересна людям, если она не обновляется? Не могу понять я этой логики. Есть много вариантов контента который в принципе не может поменяться.... Странный какой-то алгоритм... Тогда уж гугл еще может отслеживать количество страниц на сайте, если оно не меняется или меняется медленно, то нафиг такой сайт, за 1000 выносим и все ))))))))
C точки зрения здравого смысла сайт, обновляющийся регулярно, не может быть хуже сайта на котором контент неизменен либо обновляется изредка.
Что, впрочем, не мешает сайтам со старым контентом занимать приличные позиции.
Важна ли "свежесть" контента для Гугла?
да, но при всех прочих равных
Хм, а вот интересно, в той же вики есть вещи которые по определению не будут меняться, и что, получается информация уже не интересна людям, если она не обновляется? Не могу понять я этой логики. Есть много вариантов контента который в принципе не может поменяться.... Странный какой-то алгоритм... Тогда уж гугл еще может отслеживать количество страниц на сайте, если оно не меняется или меняется медленно, то нафиг такой сайт, за 1000 выносим и все
+1
пусть гугл отслеживает обновление сайта, а не каждой страницы тогда уж. Чего в статьях, например, менять-то?
http://lasto.com/blog/
Не, в статьях - не надо. Надо новые выкладывать :)
Ясное дело, что гугл любит свежий конент, при заходе бота на сайт он его и индексит в первую очередь. Хотя иногда и с некоторой периодичностью проверяются статьи, которые уже давно в индексе - видимо на предмет изменений их контента. Вообщем, почаще нужно обновлять сайт и все будет в порядке ;)
Думаю свежесть контента - это его обсуждаемость в сети (форумы, блоги, социалки). Именно это делает контент свежим и ставит в топ. Т.е. я думаю имеется ввиду совсем не уникальность контента.
При этом сразу затрагивается и интересность контента, без который ты ничего в результате не получишь.
Как вариант - это создание блога либо раздела новостей, написание статей по теме сайта или близких к теме, при этом статьи должны быть интересны, чтобы получить результат от социалок - как трафик та к и позиции.
Но не все темы могут заинтересовать инет-сообщество, поэтому не для всех тем это актуально.
Unlock, естественно, но это касается не только wiki.
Например, если сайт посвящен постановке определенной теоремы в мат.анализе и она по определению не может меняться, то и обновление контента не будет оказывать существенного влияния.
А если сайт освещает политические явления, то обновление контента будет играть существенную роль.
wilson, обсуждаемость определенного контента в социалках при сохранении линков на автора даст только беклинков :)