Robots.txt для google

123
B
На сайте с 07.02.2005
Offline
161
#11

Kost, Вы дали ссылку на мануал Яндекса.

Вот мануал Гугла

Команда Allow вовсе не отменяет последующих запрещений.

Для ТС надо так:

User-agent: *

Disallow: /papka/

Disallow: /papka1/

А если внутри запрещенных папок надо разрешить какие-то урлы, то использовать Allow.

P.S. Директива Kost для robots.txt

Уберите Allow и все. Точка. Больше ничего не нужно.

Сорри, не удержался. :)

M
На сайте с 27.10.2006
Offline
111
#12
bober:
Вот мануал Гугла

Если бы ТС хотел учиться, он прочитал бы не только мануал. А ему нужно было на блюдечке. Вот пусть и кушает то, что ему предложили выше под его ситуацию.

bober:
А если внутри запрещенных папок надо разрешить какие-то урлы, то

То он еще одну тему создаст ;)

Бесплатное хранилище данных (http://bit.ly/gJYy9Z) (5GB) с синхронизацией. По ссылке — бонус 500MB.
B
На сайте с 07.02.2005
Offline
161
#13
Maxoud:
Если бы ТС хотел учиться, он прочитал бы не только мануал. А ему нужно было на блюдечке.

Ну, я бы так не стал говорить... На самом деле, даже почитав сто раз мануал, там не получаешь ответов на все вопросы и возможные ситуации. Вот, например как исключить урлы, содержащие определенную последовательность символов, но разрешить урлы, содержащие те же символы + еще какой-то?

Например - исключить содержащие "tt=?"

Disallow: /*tt=? (в соответствии с мануалом)

А как при этом разрешить содержащие "qtt=?"? В мануале описано только, как исключить из запрещения урлы, имеющие определенное окончание, и все.

Поэтому ИМХО вполне нормально попробовать получить сторонние мнения.

[Удален]
#14
bober:
Команда Allow вовсе не отменяет последующих запрещений.

Директива Allow вообще зло. Ибо итак "разрешено всё, что не запрещено".

Вообще в спецификации роботс.тхт её нет (не было во всяком случае раньше), и была введена Гуглём (по некоторым непроверенным слухам ;) )

M
На сайте с 27.10.2006
Offline
111
#15
Maxoud:
не только мануал

Хочу подчеркнуть, что читал бы он НЕ ТОЛЬКО мануал. Так было сказано.

SeoNizator:
Директива Allow вообще зло. Ибо итак "разрешено всё, что не запрещено". (...) Директива Allow вообще зло

Полностью согласен.

В общем, даже само использование robots.txt не является безусловно необходимым и легко обходится на ранних стадиях строительства.

ЗЫ. Я, например, отсеиваю Google по User-Agent и ни разу еще не зажужжал от этого. Ничего не упало, ничего лишнего не появилось и т. п. И robots.txt нет ни на одном моем сайте.

B
На сайте с 07.02.2005
Offline
161
#16
Maxoud:
легко обходится на ранних стадиях строительства.

Это правда, но далеко не всегда есть возможность участвовать в ранних стадиях строительства. Даже скорее наоборот - чаще получешь сайт с проблемами на уровне движка, и с ним выкручиваешься.

M
На сайте с 27.10.2006
Offline
111
#17
bober:
чаще получешь сайт с проблемами

Да, есть такой минус нашей работы.

А, в принципе, всем жаждущим желал бы найти такой всеобъемлющий сайт: intitle:"robots.txt bible". Чтобы там была Вики, примеры, обсуждения, и т. п. НИША СВОБОДНА! Два языка как минимум. Дарю!

B
На сайте с 07.02.2005
Offline
161
#18

Before that we have to pray our Lord and Savior Google to write this Bible.

M
На сайте с 27.10.2006
Offline
111
#19

No,

<meta name="robots" content="fix_errors_for_n00bs" />

<meta name="google-pray" content="Dear Google, please love my site! It's really useful." />
<meta name="pagerank" content="10" /><!-- here "9" could be given if you are shy -->
<meta name="sape-links" content="invisible, forget" />

Вот так надо. А вы тут SEO! seo! Мета тэги рулез!

B
На сайте с 07.02.2005
Offline
161
#20

Ну, раз это работает, то предлагаю тогда создать плагин для Wordpress, вставляющий это все в каждую страницу. И продавать его. Рынок безграничен.

123

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий