Как прочитать robots.txt

12
Н
На сайте с 15.03.2005
Offline
11
1261

Подскажите, плиз, Начинающему, как на чужих сайтах можно прочесть данный файл? И где мне скачать прогу (естествено бесплатную), чтобы самому написать его в формате Unix? Да и стоит ли это писать? Может лучше все же через метатеги указыать? Кстати, у меня в метатегах для роботов указания только на главных страницах. Верно ли это7 Или надо на всех писать? Тогда, файл роботса, конечно, будет, незаменим.

Йога, мантра-медитация (http://bhakty-yoga.narod.ru/)
K
На сайте с 31.01.2001
Offline
737
#1

http://www.yandex.ru/robots.txt - тык, enjoy it.

Выделенные полосы в Москве (http://www.probkovorot.info) привели к снижению скорости до 23%.
K
На сайте с 10.03.2004
Offline
254
#2

Начинающий,

роботс можно просм отреть просто: набираете url сайта, например / а потом после слэша пишите: robots.txt и получаете:

вот вам и роботс.

вообще то роботс можно написать в блокноте :)

подробнее о синтаксисе и о самом роботсе здесь:http://www.seoman.ru/FAQ/article028.html

вообще пользуйтесь поиском по форуму, Яндексом и http://www.seoman.ru/FAQ/ чтобы найти ответы на свои вопросы

Белых оптимизаторов, работающих над внешними факторами, не бывает. И да, мой блог (http://blog.skobeeff.ru/).
S
На сайте с 15.02.2005
Offline
13
#3

robots.txt это простой текстовый файл, прочитать его очень легко http://www.имя сайта.ru/robots.txt

Пишится всё это ручками никаких прог я пока не встречал, да и нет в них надобности.

Лучше пользоваться robots.txt чем писать в мета тегах для каждой страници. Вобщем как и что делается читай здесть

Не ошибается тот, кто ничего не делает !
Н
На сайте с 15.03.2005
Offline
11
#4

Я же говорю, что - НАЧИНАЮЩИЙ. что значит то. куда вы дали ссылку?

User-Agent: *

Disallow: /yandsearch

Disallow: /yandpage

Disallow: /yandbtm

Disallow: /subscribe/view.pl

Disallow: /last20.html

Disallow: /cgi-bin/

Disallow: /yaca

Disallow: /cy

Disallow: /ie3/yandsearch

Disallow: /redir

Disallow: /norobot

на мой взгляд - это запрет на индексацию паукам других сайтов индексировать сайт Яндекса.

Но как увидеть подобные файлы на других ресурсах. Или просто после имени ресурса набирать robots.txt?

ну и, конечно, хоетлось бы получит ьответы напредыдущие вопросы.

BJ
На сайте с 08.05.2004
Offline
17
#5

Как ты думаеш как можно прочитать текстовый фаил в корне сайта ?.

Конечно пишиш название домена/имя файла.

Тоесть www.сайт.ru/robots.txt

А для состовление robots.txt ненужно ни какой программы (Хотя это умеет делать NetPromoter)

Война фигня, главное манёвр
Н
На сайте с 15.03.2005
Offline
11
#6

Пока писал ответ, окадалось, что уже написали овтет на другие вопросы. Спасибо. Но все же про формат Unix - рекомендуют именно такой, чтобы все пауки могли прочесть файл.

Н
На сайте с 15.03.2005
Offline
11
#7

Итак, я написал в блокноте роботс. Сохранил его. назвав robotx.txt

Внутри него следующая запись

User-agent: *

Disallow:

То есть разрешено всем паукам индексировать все на сайте.

Правильно ли я написал? И действительно ли паучки помут то, что написано в формате txt (см. выше)?

S
На сайте с 15.02.2005
Offline
13
#8

Да, всё правильно только убери пустую строку

User-agent: *

пустая строка

Disallow:

И если хочеш, чтоб весь сайт был проиндексирован, то можеш вобще не ставить robots.txt

Н
На сайте с 15.03.2005
Offline
11
#9

??????????????????

То есть почему? Ведь как раз и рекомендуют писать для этого роботс. Можеть тогда не стоит и метатеги роботные писать? Вообще не понял, почему отсутсиве данного файла ускоряет индексацию?!

S
На сайте с 15.02.2005
Offline
13
#10

Я не сказал что это ускорит индексацию или замедлит, просто сайт будет проиндексирован, вобще robots.txt применяют если хотят запретить к индексации какие либо файлы или директории, а если тебе нечего закрывать то можеш и не писать ничего.

12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий