- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
В частности, Я и Г игнорят ограничения в роботсе, да и сам роботс это скорее рекомендации для ПСов, чем строгие правила. Возможно ли прописать как-то в самих .swf файлах запрет, либо же в самой CMS (Wordpress)? Или быть может лучше всего держать их на облаке, и показывать пользователям на сайте оттуда? Если последний вариант конечно возможен.
С помощью mod_rewrite пробовали прописать условие RewriteCond конкретно для user-agent'а конкретного робота?
С помощью mod_rewrite пробовали прописать условие RewriteCond конкретно для user-agent'а конкретного робота?
Честно говоря, без понятия как это сделать.
Примерно вот так:
RewriteCond %{HTTP_USER_AGENT} !^googlebot.*
RewriteRule .*\.(swf)$ - [F]
перед этой конструкцией ставьте RewriteEngine On если её нет.
Примерно вот так:
перед этой конструкцией ставьте RewriteEngine On если её нет.
Большое спасибо :)
---------- Добавлено 07.02.2016 в 09:31 ----------
Примерно вот так:
Цитата:
RewriteCond %{HTTP_USER_AGENT} !^googlebot.*
RewriteRule .*\.(swf)$ - [F]
перед этой конструкцией ставьте RewriteEngine On если её нет.
И для каждого ПСа это будет выглядеть так?:
RewriteCond %{HTTP_USER_AGENT} !^googlebot.*
RewriteRule .*\.(swf)$ - [F]
RewriteCond %{HTTP_USER_AGENT} !^yandexbot.*
RewriteRule .*\.(swf)$ - [F]
Не...
используйте вот такую конструкцию:
RewriteCond %{HTTP_USER_AGENT} !^yandex.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} !^googlebot.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} !^rambler.* [NC,OR]
RewriteRule .*\.(swf)$ - [F]
в RewriteCond можно вписать столько ПС, сколько хотите
Не...
используйте вот такую конструкцию:
в RewriteCond можно вписать столько ПС, сколько хотите
Извините конечно за такое количество вопросов. Но где брать имена поисковых роботов? Облазил много различных ресурсов. На одних говорится, что у рамблера "StackRambler", на других, что просто "Rambler". Может тут всё проще простого, но я чего-то не догоняю :-(
А вам вообще всем ботам нужно запретить индексацию swf? Сделали бы тогда уж так:
RewriteRule .*\.(swf)$ - [F]
У вас же сайт не на флеше, надеюсь? т.е. отдельные файлы swf должны быть встроены в страничку, а значит смысла в их индексации мало...
---------- Добавлено 07.02.2016 в 11:20 ----------
Кстати не то сказал в предыдущем посте. Вот так правильно:
RewriteCond %{HTTP_USER_AGENT} ^yandex.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^googlebot.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^rambler.* [NC,OR]
RewriteRule .*\.(swf)$ - [F]
А вам вообще всем ботам нужно запретить индексацию swf? Сделали бы тогда уж так:
У вас же сайт не на флеше, надеюсь? т.е. отдельные файлы swf должны быть встроены в страничку, а значит смысла в их индексации мало...
---------- Добавлено 07.02.2016 в 11:20 ----------
Кстати не то сказал в предыдущем посте. Вот так правильно:
Первый вариант вряд ли прокатит, т.к. насколько я понял он запрещает .swf и для пользователей. А им он должен быть доступен.
- - - - -
Так и получилось - первый вариант тупо запретил swf файлы для всех. Сошёл бы и другой вариант - чтобы swf можно было вставить на страницу как элемент, где он бы успешно отображался, но чтобы нельзя было открыть именно его, хотя такое вряд ли реализуемо. Сейчас буду пробовать запрещать только ПСам.
Теперь я хоть знаю свою цель: есть swf файлы, которые должны показываться как элементы, но при этом нужно сделать невозможным переход на них, по типу site.ru/file.swf = 403 (или просто редирект назад). Исходя из логики (а мне больше исходить не из чего, так как в настройках правил для файлов не сильно разбираюь), то такое должно быть вполне реализуемо.
А вам вообще всем ботам нужно запретить индексацию swf? Сделали бы тогда уж так:
У вас же сайт не на флеше, надеюсь? т.е. отдельные файлы swf должны быть встроены в страничку, а значит смысла в их индексации мало...
---------- Добавлено 07.02.2016 в 11:20 ----------
Кстати не то сказал в предыдущем посте. Вот так правильно:
Не пашет, всё равно получается сканировать через гуглбота и яндекса - видят они, ответ 200. Может символы где какие не те? Вот темку тут же на этом форуме нашёл, там слегка по другому: