8e3yn4ik

Рейтинг
4
Регистрация
08.11.2010

##

# @version $Id: htaccess.txt 13415 2009-11-03 15:53:25Z ian $

# @package Joomla RE

# @localized Авторские права (C) 2005 - 2009 Joom.Ru - Русский дом Joomla! Все права защищены.

# @copyright Авторские права (C) 2005 - 2008 Open Source Matters. Все права защищены.

# @license http://www.gnu.org/copyleft/gpl.html GNU/GPL

# Joomla! - свободное программное обеспечение.

##

# Установка кодировки сайта по умолчанию. При необходимости, закомментируйте.

AddDefaultCharset utf-8

# Следующие строки - попытка исправить настройки PHP

# для полного соответствия системным требованиям Joomla.

# Раскомментируйте (символ комментария - #) нужные строки,

# если настройки вашего хоста не соответствуют рекомендациям

# системных требований Joomla.

# При возникновении 500 ошибки сервера, закомментируйте строку, вызывающую

# ошибку, или все строки с php_flag.

# php_flag register_globals Off

# php_flag display_errors Off

# php_flag file_uploads On

# php_flag allow_url_fopen off

# php_flag magic_quotes_gpc On

# php_flag magic_quotes_runtime Off

# Пример явного указания каталога для записи сессий:

# Для Windows - c:/temp

# для UNIX - /tmp

# Указанный каталог должен физически существовать и быть доступен для записи

# При необходимости, раскомментируйте строку ниже этой

# php_value session.save_path c:/temp

#####################################################

# ПРОЧТИТЕ ПОЛНОСТЬЮ, ЕСЛИ БУДЕТЕ ИСПОЛЬЗОВАТЬ ЭТОТ ФАЙЛ

#

# Строка ниже этого раздела: 'Options +FollowSymLinks' может вызвать проблему

# при некоторых конфигурациях сервера. Она необходима для использования модуля

# Apache mod_rewrite, но может быть уже настроена администратором вашего

# сервера и изменение этого параметра в .htaccess может быть запрещено.

# Если эта директива вызывает ошибку сервера, то закомментируйте строку

# (добавьте символ # в начало строки), перезагрузите в браузере сайт и

# протестируйте работу SEF-ссылок. Если они работают, то вам не надо ничего

# менять здесь, т.к. всё уже настроено администратором сервера.

#

# Строки, которые можно раскомментирвать (и использовать) имеют только один #.

# Строки с двумя символами ## раскомментировать не надо. В разделах, которые вы

# не используете, все строки должны начинаться с символа #

#

#####################################################

## Может быть закомментировано, если вызывает ошибку сервера. Смотрите примечания выше.

Options +FollowSymLinks

#

# Включение mod_rewrite

RewriteEngine on

RewriteRule ^$ /index [R=301,L]

RewriteBase /

########## Начало - Правила обработки запросов для блокировки распространенных эксплоитов

## Если у вас возникли проблемы с вашим сайтом, используйте ниже описанные операции

## Они пытаются заблокировать самые распространенные эксплоиты Joomla!

#

## Код запрета доступа к xml-файлам расширений (раскомментируйте для активации)

#<Files ~ "\.xml$">

#Order allow,deny

#Deny from all

#Satisfy all

#</Files>

## Конец кода запрета доступа к xml-файлам

# Блокировать любой запрос, пытающийся установить значение mosConfig через URL

RewriteCond %{QUERY_STRING} mosConfig_[a-zA-Z_]{1,21}(=|\%3D) [OR]

# Блокировать любой запрос, пытающийся испортить base64_encode через URL

RewriteCond %{QUERY_STRING} base64_encode.*\(.*\) [OR]

# Блокировать любой запрос, содержащий тег <script> в URL

RewriteCond %{QUERY_STRING} (\<|%3C).*script.*(\>|%3E) [NC,OR]

# Блокировать любой запрос, пытающийся установить значение глобальных переменных PHP через URL

RewriteCond %{QUERY_STRING} GLOBALS(=|\[|\%[0-9A-Z]{0,2}) [OR]

# Блокировать любой запрос, пытающийся изменить _REQUEST переменную через URL

RewriteCond %{QUERY_STRING} _REQUEST(=|\[|\%[0-9A-Z]{0,2})

# Перенаправлять заблокированные запросы на страницу 403 с запрещенными ошибками!

RewriteRule ^(.*)$ index.php [F,L]

#

########## Конец правил обработки для блокировки распространенных эксплоитов

# Раскомментируйте следующую строку, если URL вашего web-сервера

# не связаны напрямую с физическими путями файлов.

# Обновите ваш каталог Joomla (используйте "/" для обозначения корня сервера)

# RewriteBase /

########## Начало раздела SEF ядра Joomla!

#

RewriteCond %{REQUEST_FILENAME} !-f

RewriteCond %{REQUEST_FILENAME} !-d

RewriteCond %{REQUEST_URI} !^/index.php

RewriteCond %{REQUEST_URI} (/|\.php|\.html|\.htm|\.feed|\.pdf|\.raw|/[^.]*)$ [NC]

RewriteRule (.*) index.php

RewriteRule .* - [E=HTTP_AUTHORIZATION:%{HTTP:Authorization},L]

#

########## Конец раздела SEF ядра Joomla!

#php_value memory_limit 128M

Redirectmatch 404 ^(.*)\.html..*$

а зачем запрещать индексацию?

JIucky:
Redirect 301 /old-page.html h t t p://new-domain.ru/new-page.html.
пысы: http*.

Redirect 301 /bma.ua http://bma.ua/index.html.

вот так правильно?

8e3yn4ik добавил 12.11.2010 в 17:10

Алексей Катаев:
У вас еще кроме index и index.php отрабатывает.

Для корня можно сделать через mod_rewrite в .htaccess следующий редирект:

RewriteRule ^index(\.php)?$ / [R=permanent, L]


Прописать, конечно, такой код выше правила, если его еще нет в .htaccess:

RewriteEngine on
RewriteBase /

неполучается, ошибка 500

8e3yn4ik добавил 12.11.2010 в 17:15

basilic:
Как вариант, чтобы не лезть в навороченный какой-нить .htaccess закройте страницу index в robots.txt

Большое ЗЫ почему 404 в сабже?

причем здесь роботс...

а 404 потому что проверь в http://ip-whois.net

Ответ сервера:

HTTP/1.1 404 Компонент не найден!

Date: Fri, 12 Nov 2010 14:15:03 GMT

Server: Apache/2.2.12 (Unix)

X-Powered-By: PHP/5.2.10

P3P: CP="NOI ADM DEV PSAi COM NAV OUR OTRo STP IND DEM"

Expires: Mon, 1 Jan 2001 00:00:00 GMT

Cache-Control: no-store, no-cache, must-revalidate, post-check=0, pre-check=0

Pragma: no-cache

Set-Cookie: 944a6fb8a46bddfcd00c37de3efe9ea0=998bb8c2bc4f70406aaea3b18227f244; path=/

как это правильно прописать

да, проблема была в .htaccess редирект убрал, все теперь нормально, пусть будет без него

8e3yn4ik добавил 12.11.2010 в 10:25

и остановился на таком варианте robots:

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Allow: /images/stories
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Clean-param: font-size&view&limit&month&year&cat_id&fuck&FontSize
Crawl-delay: 0.5
Host: bma.ua
Sitemap: http://bma.ua/index.php?option=com_xmap&sitemap=1&view=xml

8e3yn4ik добавил 12.11.2010 в 10:29

niceteam:
У вас joomla, если вы не знаете чем управляется ЧПУ, значит оно вообще ничем не управляется, следовательно адрес sitemap корявый, поставьте последнюю версию sh404 и xmap

niceteam добавил 11.11.2010 в 19:30


А, мы то мучаемся составляя robots, а тут вон оно что!

XMAP стоит )

да не в этом трабла, тут чето другое....

Не удалось загрузить robots.txt.

Все равно...

ппц, да все я это знаю... установлен то щас в какой папке он у меня я хз

http://bma.ua/index.php?option=com_xmap&sitemap=1&view=xml

и вообще в яндекс вебмастере все норм и так находит какая разница какой путь... ну не в главной директории, все-равно нашел же его, значит работает

8e3yn4ik добавил 11.11.2010 в 18:37

Shred:
попробуйте другой браузер, перед этим проверьте грузится ли в ваш браузер и работает ли хостинг. Так же файл\страница может отдаваться за запрос, но код ответа отличен от http 200, в моём случае было http 500/ Хотя страницы прорисовывались. А иначе вам с апорт яши.

вот это главный вопрос, у меня трабла с Главной страницей... код ответа возвращает не 200, немогу никак разобраться че там не так

8e3yn4ik добавил 11.11.2010 в 18:42

как заливать знаю. Тотал командер есть... незнаю где файл sitemap.xml находится)))

Директива Crawl-delay

Если сервер сильно нагружен и не успевает отрабатывать запросы на закачку, воспользуйтесь директивой "Crawl-delay". Она позволяет задать поисковому роботу минимальный период времени (в секундах) между концом закачки одной страницы и началом закачки следующей. В целях совместимости с роботами, которые не полностью следуют стандарту при обработке robots.txt, директиву "Crawl-delay" необходимо добавлять в группе, начинающейся с записи "User-Agent", непосредственно после директив "Disallow" ("Allow").

Поисковый робот Яндекса поддерживает дробные значения Crawl-Delay, например, 0.5. Это не гарантирует, что поисковый робот будет заходить на ваш сайт каждые полсекунды, но дает роботу больше свободы и позволяет ускорить обход сайта.

Директива Clean-param

Если адреса страниц вашего сайта содержат динамические параметры которые не влияют на их содержимое (например: идентификаторы сессий, пользователей, рефереров и т.п.), вы можете описать их при помощи директивы 'Clean-param'. Робот Яндекса, используя эту информацию, не будет многократно перезакачивать дублирующуюся информацию. Таким образом, увеличится эффективность обхода вашего сайта, снизится нагрузка на сервер.

8e3yn4ik добавил 11.11.2010 в 18:12

niceteam:
А,ЧПУ на сайте чем управляется? Родное или стороннее расширение?

а более подробнее че это и де посмотреть?)

123
Всего: 29