SetEnvIf в htaccess: Закрываем сайт от всех, кроме поисковиков

SD
На сайте с 16.10.2006
Offline
62
7079

Сразу оговорюсь, форум на предмет SetEnvIf порыл, нашел только одну похожую тему, но ответ, предложенный там, смутил. В гугле я находил несколько иной формат записи, правда без конкретных примеров.

Передо мной стала задача закрыть доступ на сайт заказчика для всех, кроме поисковых ботов (Сейчас как раз идёт АП, и есть надежда, что Яша таки проиндексирует сайт, который не так давно продвигался и регистрировался по каталогам).

В итоге родилась следующая запись в htaccess:

errordocument 403 /forbidden.html
SetEnvIf Request_URI ^/forbidden\.html$ allowed
SetEnvIf User-Agent "^Yandex"$ allowed
SetEnvIf User-Agent "googlebot"$ allowed

<Limit GET PUT POST>
order deny,allow
deny from all
Allow from Моя_Айпишка
Allow from env=allowed
</Limit>

Так вот, вопрос к знающим:

Меня на сайт пускает, но насколько я могу быть уверенным, что также пустит поисковых ботов? правильный ли у меня синтаксис? Если не правильный, то какой правильный?

PHP Web Developer, traveler, blogger, journalist
Shtogrin
На сайте с 02.11.2006
Offline
95
#1

SetEnvIf User-Agent "Googlebot"$ allowed

Для проверки можно использовать FireFox + User Agent Switcher

http://chrispederick.com/work/user-agent-switcher/

www.shtogrin.com (http://www.shtogrin.com/). Канцтовары (http://www.invit.com.ua/). 1С Бухгалтерия (http://account.kiev.ua/).
SD
На сайте с 16.10.2006
Offline
62
#2

Shtogrin, спасибо за поправку. Скачал плагин к FireFox. IP свой отключил из списка разрешенных. Добавил Юзер-агента Яндекса и гугла. Под ними пускает. Значит теоретически работает!

Shtogrin
На сайте с 02.11.2006
Offline
95
#3
ShaDeRzz:
Значит теоретически работает!

Почему теоретически? Должно работать. Так как дело серьезное (роботов контролировать), для полной уверенности посмотреть еще логи в течении дня.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий