- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Не силен в этих делах, но хостер пишет что большая нагруузка на хостинг и надо оптимизировать сайт, почитал что можно разгрузить убрав поисковых ботов, трафик есть с яндекса, гугла, мейла и рамблера. Как разрешить лазить по сайту только им? Роботс сейчас такой:
User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /images/
Disallow: /includes/
Disallow: /installation/
Disallow: /language/
Disallow: /libraries/
Disallow: /media/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Disallow: /xmlrpc/
Может еще что-то можно сделать в роботсе малой кровью?
Всем заранее большое спасибо!!!
Ну если даже роботы перегружают то скорее всего Ваш хостер отстойный или движок очень тяжёлый и ничего не оптимизировано. Например поставили WP и напихали кучу плагинов которые по большому счёту не нужны.
Первоначально нужно попробовать оптимизировать сам сайт, а потом уж апетиты поисковиков ограничивать.
Если есть возможность посмотреть логи сервера (например если можно включить Awstat) то проанализировав кто откуда когда и сколько - можно что то уже думать. У меня как то на одном отстойном хостинге пара качалок грузили сайт так что хостер пару раз блокировал аккаунт.
Надо не роботс мучать, а движком заняться. Либо тариф менять.
просто домен инфо, так и думаю, может разные чужие поисковики шарят по нему... Подскажите что дописать в роботс, что-бы лазили только роботы, яндекс, гугл, рамблер...
Задайте Crawl-delay, полегчает немного.
Crawl-delay: 10
просто домен инфо, так и думаю, может разные чужие поисковики шарят по нему...
думаю один роботс не спасет, видимо стоит в .htaccess побанить ботов ->
например по юзерагенту, что-то типа
RewriteEngine on
RewriteCond %{HTTP_USER_AGENT} ^Yahoo.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Twiceler.* [NC,OR]
RewriteCond %{HTTP_USER_AGENT} ^Baiduspider.*
RewriteRule ^.* - [F,L]
..ну и остальных дописать по-желанию..
Ничего глупее, что можно придумать для уменьшения нагрузки на хостинг, я не слыхал даже.
Забаньте уж тогда и гугла с яндексом, зачем они вам. И сайт удалите полностью, а то еще в поиск попадет, люди зайдут, нагрузка увеличится.
Вам же сказали, займитесь оптимизацией движка, судя по роботсу у вас Joomla, или меняйте тариф хостинга или сам хостинг. В роботсе вы не закроете доступ ботов к сайту, они все равно будут заходить, многим вообще плевать что тамв роботсе написано, даже не заглядывают.
Уберете поисковых роботов - сразу последует падение в выдаче. Не делайте этого. Лучше арендуйте облачные решения.
Кто поделиться ссылкой как оптимизировать джумлу малой кровью, так как я не силен в этих делах, сайт очень узкой и сложной тематики, поэтому народ и пошел. Там никакой оптимизации: голая джумла, 100 статей и 100 картинок к им...
Likelo, посмотрите, какой у вас тариф - может, у вас лимитированный траффик: 3 человека могут посмотреть 2 картинки, а дальше начинается "большая нагруузка на хостинг ".
Или вирусы какие-нибудь.
Смотри логи сервера, либо через Awstat (если на хостинге есть предустановленный включи через ПУ), либо какой нибудь декстопной прогой. Нужно сначала понять кто и что грузит. Может реально какие то качалки тебе мини DOSS делают. Джомла, даже без какой либо оптимизации спокойно работает на обычном шареде при 1000 уникальных посетителей с 5000 просмотров. Это данные с реального сайта моего знакомого, у меня нет на Джомле ни одного сайта, поэтому посмотрел его посещаемость.