Sham

Sham
Рейтинг
16
Регистрация
01.10.2005

webrings. Кажется так это называется.

супер вопрос! почему только в личку :( мне тоже очень интересно.

ЗЫ: если уж в личку то можно и мне сс

решил остановиться на activehost.ru.

может кто скажет чего плохого пока не поздно :)

Спасибо большое

похоже закрытая тема?

тогда может кто скажет что-то по поводу freehost.com.ua и a4h.ru

ну где же вы, профи!

там столько вопросов, которые и мне интересны (возможно, и не только)

неужели эта тема так проста и бональна. тогда может линк какой, чтоб почитать.

ps: sorry за эмоции :(

Всем спасибо, разобрался.

За матчасть особенно.

MadCat:
Их надо кормить прямыми ссылками на все существующие языковые версии.

так в том и дело, что нет таких ссылок. есть одна страница (одна ссылка) которая в зависимости от Accept-Language выдает ту или иную локализацию.

а можно ли вообще добавлять в каталог более чем одну страницу с сайта?

а

Host: www.*****.ru

означает что индексируются только сайты рунета?

тогда для других зон есть другие роботы?

и еще в моем случае получается, что надо каждую локализацию вешать на отдельный домен?

ps: это для ясности

Управление индексацией

Оглавление документа

Файл robots.txt

МЕТА тэг <Robots>

Есть два способа влияния на роботов поисковых машин: файл robots.txt и META тэг ROBOTS.

Файл robots.txt

Единственное, что может делать файл robots.txt – это закрывать от индексации файлы и каталоги. Делать это может выборочно, ориентируясь на имена роботов поисковых машин. Если проект предназначен для индексации поисковыми машинами, присутствие файла robots.txt в корневой папке сайта обязательно.

Закрывать от индексации имеет смысл скрипты, архивы, графические файлы, а также часто изменяемые страницы.

Имя файла robots.txt должно состоять из строчных букв (нижний регистр). Файл должен находится в корневом каталоге сервера. Файл с именем robots.txt, находящийся в других каталогах или содержащий буквы верхнего регистра, будет проигнорирован.

Файл robots.txt формируется из записей, по две строки в каждой. Первая строка содержит имя робота, вторая – перечень закрываемых каталогов и/или страниц. Имена каталогов и файлов на сервере рекомендуется всегда писать в нижнем регистре, в последствие не нужно будет угадывать, как набирать адрес.

Пример записи, которая ничего не запрещает:

User-agent: * #относится ко всем роботам

Disallow: #никаких запретов

Звездочка в строке User-agent говорит, что эта запись относится ко всем роботам. Строка Disallow не содержит записей, что означает отсутствие запретов.

Запрещается использовать символы множественного выделения (например, *.gif) в строке Disallow:

Пример записи, запрещающей всё и всем:

User-agent: *

Disallow: /

Первая строка говорит, что данная рекомендация относится ко всем роботам. Вторая строка блокирует (рекомендательно) доступ ко всем файлам и каталогам сервера.

В строке User-agent вместо звездочки могут быть указаны имена конкретных роботов.

Тогда запрещающий тег будет выглядеть так:

User-agent: Yandex

Disallow: /

User-agent: googlebot

Disallow: /

Для роботов Yandex и googlebot доступ на сервер закрыт, для всех остальных роботов ограничений нет.

Пример запрета индексации файлов в служебных каталогах (новый стандарт):

User-Agent: *

Disallow: /cgi-bin/

Disallow: /img/

Disallow: /news/img/

Каталоги и файлы перечисляются построчно.

Можно накладывать ограничения на отдельные файлы и группы файлов:

User-agent: *

Disallow: /my/my.html

Disallow: /docs/mydoc.html

Disallow: /art/my

Последняя строка примера запрещает индексацию всех файлов, расположенных в каталоге /art/, имена которых начинаюся с my

МЕТА тэг <Robots>

META тег ROBOТS может управлять индексацией только той страницы, на которой он прописан. Значение тэга Robоts может состоять из следующих директив, разделенных запятыми:

Index – эта страница должна быть индексирована.

Noindex – эта страница не должна индексироваться.

Follow – прослеживать гиперссылки на странице.

Nofollow – не прослеживать гиперссылки на странице.

All – index, follow (по умолчанию).

None – noindex, nofollow.

Тег <META name=Robоts content="all"> ничего не меняет в работе робота поисковой машины, так как значение “all” принято по умолчанию. Но если эта страница создается динамически или очень часто обновляется, то нет смысла ее индексировать, так как информация о странице в поисковой машине и ее истинное содержание будут разными.

В этом случае можно рекомендовать поисковой машине не индексировать эту страницу, а только отслеживать на ней гиперссылки, чтобы проиндексировать остальную часть сайта: <META name=Robоts content="noindex,follow">.

При использовании тега, запрещающего отслеживание гиперссылок <META name=Robоts content="index,nofollow"> часть сайта может остаться не проиндексированной, так как внутри сайта роботы перемещаются по гиперсылкам. И те страницы, переход на которые заблокирован, роботы найти не смогут.

META-тэг Robots имеет приоритет над директивами управления, заданными в файле robots.txt. То есть, если директивы управления в файле robots.txt разрешают индексировать все файлы в каталоге, то блокирующий META-тэг может запретить индексирование страницы, находящейся в этом каталоге. Обратное невозможно, так как робот просто не узнает, что рекомендует META тег странички в заблокированном каталоге.

Не все роботы воспринимают директивы META-тега ROBOTS в полном объеме. В основном возникают проблемы с директивами Follow и Nofollow.

ps: это не мое, где-то взял, а где не помню :(

1 234
Всего: 32