Файл robots.txt

123 4
S2
На сайте с 07.01.2008
Offline
611
#11

Куча сайтов без роботса обходится. Если склейка в правильном направлении не актуальна и закрывать нечего - можете не делать. Если хотите ускорить процедуру склейки яндексом, можете указать:

User-agent: Yandex

Disallow:

Host: сайт

Если сайт большой, то чтобы все нужные страницы проиндексировались - закройте служебные файлы, статистику, поиск и т.п. от индексации.

Так же можно закрыть или не закрыть сайт от других поисковиков.

Не надо приписывать мне свои выводы, я имею ввиду только то, что написал. Лучшая партнёрка по футболкам/толстовкам (http://partnerka.kolorado.ru/?ref=1921540) Опрос: Проверить текст на уник - как? (/ru/forum/495885)
G
На сайте с 15.11.2008
Offline
5
#12

А host для яндекса прописывать обязательно??

Talisman13
На сайте с 20.01.2007
Offline
211
#13
Grag:
А host для яндекса прописывать обязательно??

По желанию...

A7
На сайте с 19.12.2008
Offline
4
#14

Нужно ли host прописать не только для яндекса но и для остальных. Правильно ли будет:

User-agent: *

Disallow:

Host: dailet.com

Sitemap: http://dailet.com/sitemap.xml

Тюнинг салонов автомобилей (http://dailet.com)
S2
На сайте с 07.01.2008
Offline
611
#15
ass7:
Нужно ли host прописать не только для яндекса но и для остальных. Правильно ли будет:
User-agent: *
Disallow:
Host: dailet.com
Sitemap: http://dailet.com/sitemap.xml

Можно так написать. Но нужно понимать, что кроме Яндекса - эту директиву никто не поймёт. См. ссылку на справку указанную выше. Кроме этого, даже прописанная эта директива не даёт 100% результат, поэтому многие пишут её только в секторе для Яндекса, чтобы увеличить вероятность правильной реакции робота.

Talisman13
На сайте с 20.01.2007
Offline
211
#16

ass7, нет не правильно.

S2
На сайте с 07.01.2008
Offline
611
#17
Talisman13:
ass7, нет не правильно.

Почему? Вот цитата из хелпа Яндекса:

#Пример корректно составленного robots.txt, при обработке которого директива Host учитывается
User-Agent: *
Disallow:
Host: www.myhost.ru
Skaizer
На сайте с 11.08.2007
Offline
104
#18

Можно указать правила для всех поисковых систем, прописывать конкретно для Яндекса абсолютно необязательно.

И вот ссылочка по теме robots.txt http://www.codeisart.ru/meta-robots-%D0%B8%D0%BB%D0%B8-robots-txt/

Размножение статей, уник до 100%, от 11$/1000 символов. Статьи индексируются Яндексом. (/ru/forum/439355)
kimberlit
На сайте с 13.03.2007
Offline
370
#19
vandamme:
kimberlit, и к чему она приведет?

Учитываться эти данные не будут ...

cleverbird
На сайте с 17.03.2008
Offline
41
#20

Создал robots.txt для блога на WP.

Посмотрите, пожалуйста, правильно ли:

User-agent: Yandex
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Host: site.ru
Sitemap: Http://site.ru/sitemap.xml
User-agent: *
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: */trackback
Disallow: */feed
Disallow: */comments

Правильно ли я сделал, что не ставил "/", например, не /wp-admin, как я писал, а /wp-admin/?

осторожно, работает мозг
123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий