параметры robots.txt для Яндекс

V
На сайте с 10.05.2005
Offline
75
Voc
2714

не пойму никак, параметр Allow: работает только для Яндекса?

это

User-agent: *

Allow: /dir1/index.htm

Allow: /dir2/index.htm

Allow: /dir3/index.htm

Allow: /index.htm

Disallow: /

сработает?

я хочу чтоб все поисковики видели только 4 индекса, а остальное - нет

подскажите плз...

mikuny
На сайте с 13.12.2007
Offline
45
#1
Voc:
не пойму никак, параметр Allow: работает только для Яндекса?
это

User-agent: *
Allow: /dir1/index.htm
Allow: /dir2/index.htm
Allow: /dir3/index.htm
Allow: /index.htm
Disallow: /

сработает?

я хочу чтоб все поисковики видели только 4 индекса, а остальное - нет

подскажите плз...

только для яндекса.

А в чем проблема? закрываем от индексации все что не нужно, а то что нужно оставляем.

User-agent: *

Disallow: закрыть

Disallow: закрыть

Disallow: закрыть

Disallow: закрыть

и.тд

Бизнес начинается с регистрации Большой процент с продажи с продажи (http://www.goldstimul.com/affiliates/signup.php?a_aid=4dda60bca9363)
[Удален]
#2
Voc:
не пойму никак, параметр Allow: работает только для Яндекса?

Параметр Allow работает для того робота, что прописан в UserAgent. В вашем случае * - любой робот.

Подробнее:

http://robotstxt.org.ru/

http://help.yandex.ru/webmaster/?id=996567

mikuny
На сайте с 13.12.2007
Offline
45
#3
РiJi:
Параметр Allow работает для того робота, что прописан в UserAgent. В вашем случае * - любой робот.
Подробнее:
http://robotstxt.org.ru/
http://help.yandex.ru/webmaster/?id=996567

Не вводите людей в заблуждение.

Allow только для яндекса!

богоносец
На сайте с 30.01.2007
Offline
774
#4
Voc:
я хочу чтоб все поисковики видели только 4 индекса

А может быть без индекс.хтмл индексить-то?

Allow: работает только для Яндекса?

Нет, не только, ещё и для Гугля.

Но Рамблер про Allow вроде пока ещё не говорил ничего, поэтому лучше запретите всем (User-agent: *) то, чего не стоит индексить. см #2

wolf
На сайте с 13.03.2001
Offline
1183
#5

Вообще-то параметр Allow описан в официальном протоколе файла robots.txt: http://www.robotstxt.org/norobots-rfc.txt

The format logically consists of a non-empty set or records,
separated by blank lines. The records consist of a set of lines of
the form:

<Field> ":" <value>

In this memo we refer to lines with a Field "foo" as "foo lines".

The record starts with one or more User-agent lines, specifying
which robots the record applies to, followed by "Disallow" and
"Allow" instructions to that robot.

Значит, вежливые роботы его обязаны соблюдать

Сергей Людкевич, независимый консультант, SEO-аудиты и консультации - повышаю экспертность SEO-команд и специалистов ( http://www.ludkiewicz.ru/p/blog-page_2.html ) SEO-блог - делюсь пониманием некоторых моментов поискового продвижения ( http://www.ludkiewicz.ru/ )
V
На сайте с 10.05.2005
Offline
75
Voc
#6
mikuny:
только для яндекса.

А в чем проблема? закрываем от индексации все что не нужно, а то что нужно оставляем.

User-agent: *
Disallow: закрыть
Disallow: закрыть
Disallow: закрыть
Disallow: закрыть
и.тд

закрывать много придется

вот так же сработает? я не ошибаюсь?

--------------------------------------

User-agent: Yandex

Allow: /dir1/index.htm

Allow: /dir2/index.htm

Allow: /dir3/index.htm

Allow: /index.htm

Disallow: /

User-agent: Googlebot

Allow: /dir1/index.htm

Allow: /dir2/index.htm

Allow: /dir3/index.htm

Allow: /index.htm

Disallow: /

-----------------------------------

Polkan
На сайте с 28.09.2005
Offline
102
#7

Voc, если у Вас новый, еще не проиндексированный сайт, то можно, например внести в имена всех папок, которые надо будет закрыть от роботов нечто общее и в будущем новые имена формировать с учетом принятого правила.

Например, папки "Ivan", "Masha", "Roman" станут папками "__Ivan", "__Masha", "__Roman".

А в robots.txt просто добавите правило:

User-Agent: *

Disallow: /__

WordPress-плагин для Apishops (http://p-api-shop.ru/) P-API-Shop WooCommerce-плагин для Apishops (http://woo-apishops.ru/) Woo-Apishops
V
На сайте с 10.05.2005
Offline
75
Voc
#8
Polkan:
Voc, если у Вас новый, еще не проиндексированный сайт, то можно, например внести в имена всех папок, которые надо будет закрыть от роботов нечто общее и в будущем новые имена формировать с учетом принятого правила.
Например, папки "Ivan", "Masha", "Roman" станут папками "__Ivan", "__Masha", "__Roman".
А в robots.txt просто добавите правило:
User-Agent: *
Disallow: /__

да нет..не получится..

конечно, я уже думал об этом...сайт старый, страниц много и там слишком большой бардак, чтоб его разгребать..

п.э. мне и надо запретить все кроме 4х страниц

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий