Настройка robots.txt в UMI.CMS

[Удален]
7009

Есть острая необходимость дописать в существующий robots.txt ниже пару строк


User-Agent: *
Disallow:
Disallow: /?
Disallow: /emarket/addToCompare
Disallow: /emarket/basket
Disallow: /go_out.php
Disallow: /images
Disallow: /images/lizing
Disallow: /images/ntc
Disallow: /files
Disallow: /users
Disallow: /admin
Disallow: /install-temp
Disallow: /install-static
Disallow: /install-libs

Host: site.ru
Crawl-delay: 5
Sitemap: http://site.ru/google-sitemap.xml

строчки:


User-agent: MJ12bot
Disallow: /

Не могу понять как это сделать. Файл отвечающий за robots.txt



<?php
require CURRENT_WORKING_DIR . '/libs/config.php';

$cmsController = cmsController::getInstance();
$config = mainConfiguration::getInstance();

$crawlDelay = $config->get('seo', 'crawl-delay');
$primaryWWW = (bool) $config->get('seo', 'primary-www');

$buffer = outputBuffer::current('HTTPOutputBuffer');
$buffer->contentType('text/plain');
$buffer->charset('utf-8');

$sel = new selector('pages');
$sel->where('robots_deny')->isnull();

$rules = "";
if(sizeof($sel->result) == 0) {
$rules .= "Disallow: \r\n";
}

$rules .= "Disallow: /?\r\n";

foreach($sel->result as $element) {
$rules .= "Disallow: " . $element->link . "\r\n";
}

$rules .= "Disallow: /emarket/addToCompare\r\n";
$rules .= "Disallow: /emarket/basket\r\n";
$rules .= "Disallow: /go_out.php\r\n";
$rules .= "Disallow: /images\r\n";
$rules .= "Disallow: /images/lizing\r\n";
$rules .= "Disallow: /images/ntc\r\n";
$rules .= "Disallow: /files\r\n";
$rules .= "Disallow: /users\r\n";
$rules .= "Disallow: /admin\r\n";
$rules .= "Disallow: /install-temp\r\n";
$rules .= "Disallow: /install-static\r\n";
$rules .= "Disallow: /install-libs\r\n";

$domain = $cmsController->getCurrentDomain();

$host = $domain->getHost();
$host = preg_replace('/^www./', '', $host);
if($primaryWWW) {
$host = 'www.' . $host;
}

$buffer->push("User-Agent: *\r\n");
$buffer->push($rules . "\r\n");

$buffer->push("Host: {$host} \r\n");

$buffer->push("Crawl-delay: {$crawlDelay}\r\n");

$buffer->push("Sitemap: http://{$host}/google-sitemap.xml \r\n");

$buffer->end();
?>

Я буду благодарен за помощь!

#kletka#
На сайте с 15.04.2004
Offline
170
#1

только руками!

Продаю фото со всех фотобанков по 1$ по Расширенной лицензии. Skype: kletka79
[Удален]
#2
#kletka#:
только руками!

Что только руками?

Я понимаю, что именно руками мне нужно внести запись в файл, отвечающий за формирование robots.txt. Вот я и спрашиваю как правильно внести запись.

Plazik
На сайте с 29.07.2008
Offline
168
#3

Создайте нужный вам роботс и загрузите его в корень сайта.

И читайте документацию, там все написано.

kimberlit
На сайте с 13.03.2007
Offline
370
#4
Magdee:
Файл отвечающий за robots.txt

Что только не придумают...

Создай нормальный роботс, залей его в корень и спи спокойно.

stickman
На сайте с 05.03.2010
Offline
22
#5

все довольно просто


<?php
require CURRENT_WORKING_DIR . '/libs/config.php';

$cmsController = cmsController::getInstance();
$config = mainConfiguration::getInstance();

$crawlDelay = $config->get('seo', 'crawl-delay');
$primaryWWW = (bool) $config->get('seo', 'primary-www');

$buffer = outputBuffer::current('HTTPOutputBuffer');
$buffer->contentType('text/plain');
$buffer->charset('utf-8');

$sel = new selector('pages');
$sel->where('robots_deny')->isnull();

$rules = "";
if(sizeof($sel->result) == 0) {
$rules .= "Disallow: \r\n";
}

$rules .= "Disallow: /?\r\n";

foreach($sel->result as $element) {
$rules .= "Disallow: " . $element->link . "\r\n";
}

$rules .= "Disallow: /emarket/addToCompare\r\n";
$rules .= "Disallow: /emarket/basket\r\n";
$rules .= "Disallow: /go_out.php\r\n";
$rules .= "Disallow: /images\r\n";
$rules .= "Disallow: /images/lizing\r\n";
$rules .= "Disallow: /images/ntc\r\n";
$rules .= "Disallow: /files\r\n";
$rules .= "Disallow: /users\r\n";
$rules .= "Disallow: /admin\r\n";
$rules .= "Disallow: /install-temp\r\n";
$rules .= "Disallow: /install-static\r\n";
$rules .= "Disallow: /install-libs\r\n";

$domain = $cmsController->getCurrentDomain();

$host = $domain->getHost();
$host = preg_replace('/^www./', '', $host);
if($primaryWWW) {
$host = 'www.' . $host;
}

$buffer->push("User-Agent: *\r\n");
$buffer->push($rules . "\r\n");

$buffer->push("Host: {$host} \r\n");

$buffer->push("Crawl-delay: {$crawlDelay}\r\n");

$buffer->push("Sitemap: http://{$host}/google-sitemap.xml \r\n");

$buffer->push("User-Agent: MJ12bot\r\n");
$rules .= "Disallow: /\r\n";
$buffer->push($rules . "\r\n");

$buffer->end();
?>

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий