- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Всех приветствую.
Подскажите, как синтаксически верно будет набросать такой .htaccess файлик ?
Пытаюсь запретить доступ к файлу my.pdf только для роботов Yandex, Googlebot и Yahoo! Slurp , причем с выдачей 403 ошибки.
Сам файл лежит по адресам:
http://www.mysite.ru/pdf/my.pdf
/var/www/user1/public_html/mysite.ru/pdf/my.pdf
Я вот пробую, но это не работает (все равно роботы утюжат этот документ):
И это тоже не работает:
Так в чем же дело ?
У mod_rewrite есть свой лог
Включите его и посмотрите
У mod_rewrite есть свой лог
Включите его и посмотрите
А где его смотреть ? Я на вирт. хостинге его не нашел )
А где его смотреть ? Я на вирт. хостинге его не нашел )
Попросить саппорт хостера
А если что-то вроде этого? Будет 403 отдаватся.
SetEnvIf User-Agent Googlebot GoAway=1
Order allow,deny
Allow from all
Deny from env=GoAway
</Files>
бгг, хотите обмануть пауков а они обманут вас, надеюсь вы осознаете что они могут делать контрольные проверки без усер агента "Yandex, Googlebot" (обычно это делается как раз для поиска скрытого контента)
RewriteEngine On
RewriteCond %{USER_AGENT} Googlebot|Yandex|Yahoo! Slurp
RewriteRule ^my\.pdf - [F]
^my\.pdf - предполагается что файл находится в корне
А если что-то вроде этого? Будет 403 отдаватся.
RewriteEngine On
RewriteCond %{USER_AGENT} Googlebot|Yandex|Yahoo! Slurp
RewriteRule ^my\.pdf - [F]
^my\.pdf - предполагается что файл находится в корне
В панели вебмастера проверил, робот опять же получает и читает файл. Если указывать подкаталог /pdf/ - выдает ошибку, что запрещено.
Ерунда какая-то получается😡
---------- Добавлено 27.01.2013 в 07:06 ----------
бгг, хотите обмануть пауков а они обманут вас, надеюсь вы осознаете что они могут делать контрольные проверки без усер агента "Yandex, Googlebot" (обычно это делается как раз для поиска скрытого контента)
Нет, я хочу, чтобы роботы адекватно читали файлы robots.txt
Какой каталог, вы как правило написали?
Какой каталог, вы как правило написали?
Правило у меня стоит для всех папок - запрет на просмотр: Options -Indexes
А для файла не хочет работать, либо через панель вебмастера User Agent не Googlebot, а подменяется другим (
А для файла не хочет работать, либо через панель вебмастера User Agent не Googlebot, а подменяется другим (
1. Правило покажите таким, каким его написали вы. А лучше весь блок реврайтов
2. На хостинге включен mod_rewrite?
3. В какой папке находится файл(ы), и в какой папке находится Htaccess куда вы добавляете правила?