Дайте совет по robots.txt для разгрузки хостинга

Likelo
На сайте с 26.12.2011
Offline
59
620

Не силен в этих делах, но хостер пишет что большая нагруузка на хостинг и надо оптимизировать сайт, почитал что можно разгрузить убрав поисковых ботов, трафик есть с яндекса, гугла, мейла и рамблера. Как разрешить лазить по сайту только им? Роботс сейчас такой:

User-agent: *

Disallow: /administrator/

Disallow: /cache/

Disallow: /components/

Disallow: /images/

Disallow: /includes/

Disallow: /installation/

Disallow: /language/

Disallow: /libraries/

Disallow: /media/

Disallow: /modules/

Disallow: /plugins/

Disallow: /templates/

Disallow: /tmp/

Disallow: /xmlrpc/

Может еще что-то можно сделать в роботсе малой кровью?

Всем заранее большое спасибо!!!

GAMMA
На сайте с 27.12.2006
Offline
154
#1

Ну если даже роботы перегружают то скорее всего Ваш хостер отстойный или движок очень тяжёлый и ничего не оптимизировано. Например поставили WP и напихали кучу плагинов которые по большому счёту не нужны.

Первоначально нужно попробовать оптимизировать сам сайт, а потом уж апетиты поисковиков ограничивать.

Если есть возможность посмотреть логи сервера (например если можно включить Awstat) то проанализировав кто откуда когда и сколько - можно что то уже думать. У меня как то на одном отстойном хостинге пара качалок грузили сайт так что хостер пару раз блокировал аккаунт.

Мой сервис блогов (http://mublog.ru) и личный блог (http://blogroot.ru)
DV
На сайте с 01.05.2010
Offline
644
#2

Надо не роботс мучать, а движком заняться. Либо тариф менять.

VDS хостинг ( http://clck.ru/0u97l ) Нет нерешаемых задач ( https://searchengines.guru/ru/forum/806725 ) | Перенос сайтов на Drupal 7 с любых CMS. ( https://searchengines.guru/ru/forum/531842/page6#comment_10504844 )
Likelo
На сайте с 26.12.2011
Offline
59
#3

просто домен инфо, так и думаю, может разные чужие поисковики шарят по нему... Подскажите что дописать в роботс, что-бы лазили только роботы, яндекс, гугл, рамблер...

DV
На сайте с 01.05.2010
Offline
644
#4

Задайте Crawl-delay, полегчает немного.

Crawl-delay: 10

iren K
На сайте с 28.12.2008
Offline
222
#5
Likelo:
просто домен инфо, так и думаю, может разные чужие поисковики шарят по нему...

думаю один роботс не спасет, видимо стоит в .htaccess побанить ботов ->

например по юзерагенту, что-то типа

RewriteEngine on

RewriteCond %{HTTP_USER_AGENT} ^Yahoo.* [NC,OR]

RewriteCond %{HTTP_USER_AGENT} ^Twiceler.* [NC,OR]

RewriteCond %{HTTP_USER_AGENT} ^Baiduspider.*

RewriteRule ^.* - [F,L]

..ну и остальных дописать по-желанию..

c уважением Iren
F
На сайте с 13.11.2009
Offline
269
#6

Ничего глупее, что можно придумать для уменьшения нагрузки на хостинг, я не слыхал даже.

Забаньте уж тогда и гугла с яндексом, зачем они вам. И сайт удалите полностью, а то еще в поиск попадет, люди зайдут, нагрузка увеличится.

Вам же сказали, займитесь оптимизацией движка, судя по роботсу у вас Joomla, или меняйте тариф хостинга или сам хостинг. В роботсе вы не закроете доступ ботов к сайту, они все равно будут заходить, многим вообще плевать что тамв роботсе написано, даже не заглядывают.

kostyan777
На сайте с 15.02.2013
Offline
4
#7

Уберете поисковых роботов - сразу последует падение в выдаче. Не делайте этого. Лучше арендуйте облачные решения.

Likelo
На сайте с 26.12.2011
Offline
59
#8

Кто поделиться ссылкой как оптимизировать джумлу малой кровью, так как я не силен в этих делах, сайт очень узкой и сложной тематики, поэтому народ и пошел. Там никакой оптимизации: голая джумла, 100 статей и 100 картинок к им...

S
На сайте с 29.01.2006
Offline
404
#9

Likelo, посмотрите, какой у вас тариф - может, у вас лимитированный траффик: 3 человека могут посмотреть 2 картинки, а дальше начинается "большая нагруузка на хостинг ".

Или вирусы какие-нибудь.

GAMMA
На сайте с 27.12.2006
Offline
154
#10

Смотри логи сервера, либо через Awstat (если на хостинге есть предустановленный включи через ПУ), либо какой нибудь декстопной прогой. Нужно сначала понять кто и что грузит. Может реально какие то качалки тебе мини DOSS делают. Джомла, даже без какой либо оптимизации спокойно работает на обычном шареде при 1000 уникальных посетителей с 5000 просмотров. Это данные с реального сайта моего знакомого, у меня нет на Джомле ни одного сайта, поэтому посмотрел его посещаемость.

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий