- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
День добрый!
Есть проблема и она в следующем - есть сеть сайтов и эта сеть создает слишком большую нагрузку на сервере хостера. Нагрузку нужно снизить и для этого решено было закрыть доступ к сети ПС Mail.ru т.к. очень уже активно бот лазит по сайтам, а трафа все-равно 0.
Сделал следующее
В .htaccess
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^Mail\.Ru [NC]
RewriteRule ^.* - [F,L]
По идее ж бот должен получать 403 при попытке зайти, правильно? А все-равно пробивается..
Есть еще какие-то способы?
попробуйте в robots.txt прописать:
User-agent: Mail.Ru
Disallow: /
можно так, в самый верх
<?
if($_SERVER['USER_AGENT']=='Mail.ru'){exit;}
?>
Я конечно извиняюсь, и почти согласен, что с с майла траф не густой, но на паре моих проектов, он составляет приблизительно 20% от всего трафа, а это не мало ....
User-agent: Mail.Ru
Disallow: /
Кстати, еще есть директива Crawl-delay.
а смысл? не проще директиву crawl-delay прописать? у меня постепенно траффик с мыла растет, медленно, но верно
Можно так
http://jcornelius.com/articles/deny-access-by-user-agent/
Хотя лучше, как предложил RIU, через robots.txt (в корень каждого сайта нужно залить)
А мейл смотрит crawl-delay ? Вроде нет, т.к. к страницам обращается чаще чем там выставлено
Crawl-delay - директива robots.txt, которую придумал Яндекс
делать в .htaccess например так:
Order Allow,Deny
Allow from all
Deny from 217.69.134.56
Deny from 217.69.133.34
Deny from 94.100.181.243
накаркал. траффик с мэйла упал до практически нуля, даже не, сайт вообще выпал. где у них платоны?! :)
В таком случае, может быть стоит сменить хостера???
Или если сетка состоит из посещаемых сайтов, то есть смысл взять выделенный сервер???