- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Зачем быть уникальным в мире, где все можно скопировать
Почему так важна уникальность текста и как она влияет на SEO
Ingate Organic
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Многие жалуются, что индексация страниц проходит очень медленно, а то и вовсе пропадает. Конечно причин на это может быть много.
Но я хочу обратить ваше внимание на то, что можно роботам указать когда им приходить в следующий раз. Помнил еще давно, что есть директива роботам указывающая сколь часто им заходить и индексировать страницы, но забыл как она пишется. Искал долго в интернете, но никак не мог найти искомое.
И вот недавно нашел.
Когда вы прописываете роботу индексировать страницу , или нет директивой:
<META NAME="robots" CONTENT="ALL"> (или похожей)
дальше вы должны поставить директиву:
<META NAME="Document-state" CONTENT="Dynamic">
Это если страница часто обновляется. Это показывает роботам, что заходить надо чаще.
Но дело в том, что роботы все равно "сами знаю" когда им заходить "чаще" Как они это высчитывают - затрудняюсь сказать. Но на практике заметил, что сколь часто не обновлять страницу, все равно у них свой режим заходов. В кеше поисковиков они оставляют данные при последнем заходе.
Но у очень многих сайтов страницы все же чаще изменяются. Что-то добавляется, что-то убавляется, а в кеше поисковиков торчат старые страницы.
Так как же заставить роботов более регулярно ходить на ваш сайт и его индексировать?
Так вот. Директива выглядит таким образом:
Revisit - ревизия.
Указывается промежуток времени, через которое система заново проиндексирует документ, в данном примере это 2 дней.
<meta name="revisit-after" content="2 days">
вместо 2 дней, вы можете проставлять и 1 день, или 7 дней, да сколько угодно часто и медленно.
Вы даже можете установить почасовые заходы.
Все зависит от вашего желания и реальности, сколь часто вы изменяете страницу.
Каждая страница может иметь эту директиву и на каждой можно установить свое время.
Может быть среди множества факторов, которые влияют на то что ваши страницы редко индексируются, этот фактор сыграет роль.
PS. Не знаю, есть ли такая тема на форуме. Но даже если есть, не вредно и повторить.
Ерунда это всё. Метами индексацию не ускоришь :(
Рецепт только один - свежий вкусный контент и живые здоровые беки.
Ерунда это всё. Метами индексацию не ускоришь :(
Рецепт только один - свежий вкусный контент и живые здоровые беки.
Тогда не существовала бы такая директива :)
А контентом гурманы пусть балуются. Естественно, без контента никуда. Только плачут. Нет индексации. Старые кеши заполонили интернет по самое немогу. Сколько страниц битых, вы замечали?
И вообще, много умеют понимать роботы что написано. Вкусно или не вкусно?
И к тому же у роботов свой "вкус"
Существует множество факторов. Но директива роботам заходить так как вы хотите и требуется - это один из факторов.
<meta name="SERP_Position" content="TOP10"> - тоже напишите. Только никому не говорите, это секретный тег.
это уже сто лет как не работает...
если хотите убыстрить индексацию, обновляйте сайт чаще
это уже сто лет как не работает...
если хотите убыстрить индексацию, обновляйте сайт чаще
На практике я понял, что вот как раз это и не работает.
Обновляйте хоть каждый день, хоть два раза в день.
Пишите уникальные тексты, и вообще...
Роботам это до фени.
Можно еще попробовать прыгать на табуретке. :)
PS.
А потом все это очень легко проверить.
Я поставил, то что искал вчера на сайт. на главную поставил 2 дня.
Пока заходил только робот яндекса.
Как только будут заходить и другие роботы (гугла скажем)
Можно будет проследить через какой промежуток времени он (они) опять зашел (зайдут)
Старая фишка. Лет пять назад от нее может бы и была польза
Только никому не говорите, это секретный тег.
Никому не скажу!
Могила!
_________________________
Между прочим, тем неверующим, которые говорят что это 100 лет тому назад использовалось.
прочитаем инстукции: (выписано с автоматическим переводчиком текстов, поэтому надо интерпретировать на русский язык)
Официальный мета-тегов для верхних позиций поисковик
Зная, какие мета-тегов использовать и, как использовать их эффективно (называется Search Engine Optimization Best Practices), будет определить, действительно ли ваш сайт безопасного верхних позициях поисковых систем.
Вы тоже можете легко топ поисковых позиций и рейтинг в поисковых системах, как топ интернет-маркетингу в отрасли сделать, используя ниже мета-тегов в соответствии с руководящими принципами и спецификаций, которые регулируют их использование.
Official META Tags Used by the Major Search Engines in 2009 Официальный мета-тегов, используемых основных поисковых системах в 2009 году
Alexa мета-тег
В течение 30 календарных дней вы должны начать видеть ваш Alexa Rank улучшения не по дням, а по часам. Within 60 calendar days, you should be in the top 100 for your targeted niche. В течение 60 календарных дней, вы должны быть в топ-100 для вашей целевой нише.
<meta name="alexa" content="100"></meta>
_________________
Роботы Google META тегов
Этот тег должен появиться на всех страницах, которые вы хотите индексировать надлежащим образом Google. You'll want to include duplicate directives to make sure Googlebot fully understands your request so be sure to list "all" as the first directive. Вы хотите, чтобы включать дублированные директивы, чтобы убедиться, робот Google полностью понимает ваш запрос так что не забудьте перечислить "все", как первую директиву.
<meta name="googlebot" content="all, index, follow"></meta>
_______________________
PageRank ™ мета-тег
По сегодняшний день одним из наиболее важных элементов метаданных. PageRank можно легко поддается влиянию. Добавление PageRank ™ META тегов гарантирует, что ваш веб-страниц будет высокий рейтинг в Google. Значение может быть установлено от 1 до 10 с 10 время максимальное количество PageRank ™, вы не допускаются.
Не забудьте включить символ ™ или Google игнорирует тег полностью. PageRank™ is a Google trademarked term. PageRank ™ является торговой маркой Google срок.
<meta name="pagerank™" content="10"></meta>
___________________
и наконец:
Повторяемость и вновь-После мета-тегов
Я твердо верю, что вы должны удвоить на мета-теги, когда это возможно. Эти два очень важных элементов в общей индексации веб-страниц. Обширные исследования показывают, что использование пересмотреть и Повторяемость-После мета-тегов увеличивается паук деятельности из основных поисковых системах и улучшает ваши шансы на индексированный по строгому графику.
Значение пересмотреть продолжительность устанавливается в количество дней. Мы, как "2 дня". Это позволяет пауков из более-предаваясь наших уважаемых пропускной способности. . Она также держит плохо ботов от индексации нашего содержания каждые 60 секунд.
Часы, минуты и / или секунд неправильный синтаксис этого тега, и он будет игнорироваться, если неправильный синтаксис обнаружены те боты, которые подчиняются и поддержать его.
<meta name="revisit" content="2 days"></meta>
<meta name="revisit-after" content="2 days"></meta>
PS/ насчет удваивания в дополнениях есть поправки. Удваивание не действует. Действует основная директива.
___________
___________
И что изменилось с 2009 года? :)
На практике я понял, что вот как раз это и не работает.
Обновляйте хоть каждый день, хоть два раза в день.
Пишите уникальные тексты, и вообще...
Роботам это до фени.
Можно еще попробовать прыгать на табуретке. :)
PS.
А потом все это очень легко проверить.
Я поставил, то что искал вчера на сайт. на главную поставил 2 дня.
Пока заходил только робот яндекса.
Как только будут заходить и другие роботы (гугла скажем)
Можно будет проследить через какой промежуток времени он (они) опять зашел (зайдут)
странная у вас практика..
зачем прыгать на табуретке?
странная у вас практика..
зачем прыгать на табуретке?
Это не у меня такая практика.Но:
Не менее странная, чем парится, писать каждый день свежий, пахнущей новизной контент и ждать неделями, пока его роботы проиндексируют.
<meta name="SERP_Position" content="TOP10"> - тоже напишите. Только никому не говорите, это секретный тег.
Рекомендую после <meta name="SERP_Position" content="TOP10"> закрепить тегом <forever>
Блин, зачем я тему спалил?😮
Digital-angels добавил 02.11.2010 в 17:29
Между прочим, тем неверующим, которые говорят что это 100 лет тому назад использовалось.
прочитаем инстукции: (выписано с автоматическим переводчиком текстов, поэтому надо интерпретировать на русский язык)
Alexa мета-тег
В течение 30 календарных дней вы должны начать видеть ваш Alexa Rank улучшения не по дням, а по часам. Within 60 calendar days, you should be in the top 100 for your targeted niche. В течение 60 календарных дней, вы должны быть в топ-100 для вашей целевой нише.
<meta name="alexa" content="100"></meta>
Это где ж такое пишут?
В смысле, откуда перевод?