- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет весёлому разделу форума :)
Решил с Вами обсудить такой момент как заперт ненужных роботов через .htaccess.
Думаю, что новичкам тоже будет интересно узнать как можно обезопасить себя от лишних трат и нервов. Более опытных прошу поделится (если есть желание конечно ;)) своими наблюдениями и методами по этому вопросу.
Пришлось этим вопросом заняться так как после прогона одного дора по зарубежным сайтам, прибежал один робот и положил сайт на лопатки своей прытью. После этого решил банить всех левых и не нужных роботов по User-Agent через .htaccess
Для новичков:
Добавляем в .htaccess, лежащий в корне сайта, несколько строчек:
SetEnvIfNoCase User-Agent "^Baiduspider" bad_bot
SetEnvIfNoCase User-Agent "^MSNBot" bad_bot
SetEnvIfNoCase User-Agent "^ia_archiver" bad_bot
SetEnvIfNoCase User-Agent "^Sogou" bad_bot
SetEnvIfNoCase User-Agent "^Exabot" bad_bot
SetEnvIfNoCase User-Agent "^cuil.com" bad_bot
Order Allow,Deny
Allow from all
Deny from env=bad_bot
Может есть более простые способы избавления от роботов ?
Так же было бы интересно узнать кто еще каких роботов банит у себя :)
order allow deny
deny from all
allow from 127.0.0.1
:D
хм... А не проще через robots.txt оставить только нужных, а остальным вообще запретить доступ?
sorry, что маленько не по теме....
А не проще через robots.txt оставить только нужных, а остальным вообще запретить доступ?
Слишком просто! :)
Нормальные герои всегда идут в обход! ☝ :D
В robots txt можно только правильных роботов блокировать. А многие боты трафик создают, до robots.txt им пофигу.
order allow deny
deny from all
allow from 127.0.0.1
:D
А, что не так ? :)
В robots txt можно только правильных роботов блокировать. А многие боты трафик создают, до robots.txt им пофигу.
Совершенно верно многим на роботс пофигу
Есть еще такой способ
Запрет по USER_AGENT всяких качалок и роботов
может просто оставить нужных?
может просто оставить нужных?
тогда поидее будет риск стать подозреваемым в клоакинге
может просто оставить нужных?
а как это реализовать?