- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Хм, а вот интересно, в той же вики есть вещи которые по определению не будут меняться, и что, получается информация уже не интересна людям, если она не обновляется? Не могу понять я этой логики. Есть много вариантов контента который в принципе не может поменяться.... Странный какой-то алгоритм... Тогда уж гугл еще может отслеживать количество страниц на сайте, если оно не меняется или меняется медленно, то нафиг такой сайт, за 1000 выносим и все ))))))))
А что тут непонятного?? Wikipedia - настолько аторитетный ресурс, что тут блин хоть раком становись ;-) а не сдвинешь с первого места по многим ВЧ. И, кстати, инфа там часто обновляется, плюс еще вы сами можете что-то подредактировать, внести изменения, поправки.. ну, конечно, в случае если вы там уважаемый редактор ;-) Wikipedia потому и создана была, чтоб каждый мог вставлять свои 5 копеек, но строго по теме и точно. В конце-концов, Britannica вообще редко обновляется (по сравнению с Wikipedia), однако рулит :-) Не забывайте о других факторах ранжирования и уж особенно про ссылки с жирных качественных ресурсов - BBC.co.uk - и т.д.
По топику: никто не поспорит с тем, что блоги и посещаются чаще роботами (при условии их постоянного толкового наполнения и отсутствия кривизны рук в настройке тех же permalinks 😆 ). По-моему, формула 2006-2007 годов для успешной раскрутки любого ресурса - сайт+блог(желательно на другом домене). Но это чисто мое мнение.
lasto.com/blog
Буф, пжалста, не надо такие мозгоразрывающие линки давать... такой текст после первых двух абзацев "убивает"... а главное ниочем... или ты очрередной генератор тестишь на этом блоге?
+1
пусть гугл отслеживает обновление сайта, а не каждой страницы тогда уж. Чего в статьях, например, менять-то?
Например, можно в статью вставить код Адсенсе ...или на сайт Аналитикс...или поставить форму поиска ...ооо, сколько всего можно сделать с сайтом инструментами Гугля😆
... С топик стартером согласен в том плане, что для Гугля обновляемость и свежесть содержимого ОЧЕНЬ важна...при чем гораздо более важна, чем для Яндекса.С точки зрения любителя, конечно:) Мое мнение, что сайт, ссылки на который динамичны (меняются в пределах одного домена (пример - рейтинги (естественно, "уважаемые")), получает больше "+" в "глазах" Google. Естественно, там еще, наверняка, куча других параметров.
Интересно пронаблюдать, как ПР страницы, на которой изменена инфа, "сбрасывается" ("затухает") до 0, а потом постепенно возвращается (или нет :) ) до среднего ПР страниц сайта.Такое впечатление, что индексация происходит чуть ли не мгновенно (правда, еще неизвестно точное влияние нахождения на сайте кодов Гугль Адсенсе и Гугль Аналитикс, а также нахождения сайта в проекте Сайтмепс). Ой, не верится мне, что сайты, которые участвуют в их проектах (как записано в правилах), не имеют преимуществ, - по сравнению с неучаствующими.
...кстати, "быстророботы" от Яндекса и Гугля- с чем их едят и что отличает один от другого?
Seomagus, wikipedia была исключительно в качестве примере приведена, таких вариантов полно существует.
или ты очрередной генератор тестишь на этом блоге?
Блог не мой я просто разместил объяву :)
Unlock, конечно, должны быть исключения, и энциклопедии - это наиболее очевидные варианты. Однако я не был бы столько категоричен относительно вики - там много чего меняется: новые "ссылки по теме", новые статьи на связанные понятия и т.п.
это жестко! Я ни разу так и не смог ни одну его статью дочитать до конца :(
Есть много вариантов контента который в принципе не может поменяться.... Странный какой-то алгоритм...
с такими словами, наверное, и жгли Бруно ;)
Гугл любит свежий контент и новые, чистые от линков, сайты. Причем главное регулярность его добавления, т.е. если добавлять 1 раз в день или хоть 2-3 раза в неделю, то сайт "виден", стоит расслабиться на неделю-другую и нужно долго стараться приподнять сайт обратно. Но это один из факторов.
По-моему фактор "свежести" (для большинства тематик) это полный маразм гугле, который плодит кучу спама, миллионы болто-блогов и всё новых мусорных сайтов в геометрической прогрессии. И хотя они придумывают там всякие семантические алгоритмы, "морды по прежнему рулят".
Unlock, и +1 о статике, здесь неоднозначно, и тоже пример о любви к частообновляемым авторитетным ресурсам: у себя в софтварной тематике наблюдаю следующее - по определенным запросам сайт всегда в топе 5 (7 страниц, полтора года на 95% с необновляемым контентом), в устаканенный период - 1-2, но когда выходят релизы, на недельку-две выползают популярные софткаталоги и пиаристые новостные софтблоги. Блоги, имеющие больший авторитет, еще ладно (новость на первой странице), но пусть и авторитетные каталоги с заметкой в десятом разделе - капля в море, однако ж...
http://www.seomoz.org/article/search-ranking-factors
Очень спорно.