Правильный ли robots.txt?

1 23
N
На сайте с 28.05.2008
Offline
11
#21

Хацкеры - это для замазки а нужно для другой темы.

в корне лежит robots.txt пустой и лежит robots.php в .htaccess прописано:

RewriteEngine On

RewriteRule ^robots.txt$ /robots.php

сам robots.php -

<?

header('Content-type: text/plain');

?>

директивы пошли

но он показывается - где то что то пропустил?

Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#22
nuvo:
Хацкеры - это для замазки а нужно для другой темы.
в корне лежит robots.txt пустой и лежит robots.php в .htaccess прописано:
RewriteEngine On
RewriteRule ^robots.txt$ /robots.php

сам robots.php -
<?
header('Content-type: text/plain');
?>
директивы пошли

но он показывается - где то что то пропустил?

А в чем предполагаемый изюм?

N
На сайте с 28.05.2008
Offline
11
#23
Алексей Барыкин:
А в чем предполагаемый изюм?

походу нет изюма, в моем случае наверное только поможет сloaking для выдачи разных robots.txt - один роботс для 1 пс, другой для 2 пс и т.д. и какой то для не пс.

[Удален]
#24
Ctulhu:
Почему-то мне казалось, что на запрос подобных файлов сервер выдает ю дон хев пермишн и т.д. по дефолту. Будем знать и прогрессировать свою паранойю 8-)

Ну да, сервер выдаст:

You don't have permission to access /.htaccess on this server.

Additionally, a 404 Not Found error was encountered while trying to use an ErrorDocument to handle the request.

Алексей Барыкин
На сайте с 04.02.2008
Offline
272
#25
nuvo:
походу нет изюма, в моем случае наверное только поможет сloaking для выдачи разных robots.txt - один роботс для 1 пс, другой для 2 пс и т.д. и какой то для не пс.

по моему Вы изобретаете велосипед.

Откройте для себя User-agent

Пример:


User-agent: Slurp #секция для Yahoo
Crawl-delay: 5
Disallow: /page1.html

User-agent: Yandex #секция для Yandex
Disallow: /page2.html
Host: www.site.ru
Sitemap: http://www.site.ru/sitemap.xml

User-agent: googlebot #секция для Google
Disallow: /page3.html

User-agent: * #секция для прочих ПС
Disallow: /page4.html
texter
На сайте с 06.01.2007
Offline
166
#26
alger:
Для Яндекса и Google можно еще директиву Sitemap: добавить

А кто-нибудь знает, можно ли как-то в robots.txt две карты сайта добавить по разным адресам? Например, карту основного сайта и карту форума?

1 23

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий