уменьшения трафика

12
M
На сайте с 20.08.2004
Offline
376
1327

сайт стал мноооого кушать трафика, хотелось бы его как-то уменьшить, при этом, что бы посетители не страдали как это можно сделать?

есдь идея блокировать большинство мелких забугорных поисковиков. на сколько это эфективно?

спасибо.

отец сыночка, лапочки дочки и еще одного сыночка
UT
На сайте с 01.04.2006
Offline
16
UTT
#1

Попробуй запретить поисковикам лазить куда попало, качать картинки,

Попробуй оптимизировать код страниц, убрать лишинии пробелы, это позволит процентов на 15 уменьшить траффи

попробуй gzip включить

белый каталог (http://catalog.fvrc.ru/) + еще один белый каталог (http://boardcat.fvrc.ru/) PPC (http://www.smart-click.ru/aff/signup.php?ref=813)
I
На сайте с 22.10.2005
Offline
58
Iso
#2

Блокировать буржуйскую поисковую мелочь - полезно, т.к. с них пользы нет, а трафик кушают. Но этого иногда мало. Тогда может быть ещё такое дело: смылшёные товарищи делают сайты, которые налету дёргают контент с других сайтов. Короче, можно заметить, что с определённого IP-адреса (кстати, адреса хостера) начинают активно качать Ваши страницы. Недолго поглядев, можно найти, какой именно дор питается Вашим контентом. Но толк не в том, что найти дор, а в запрете для данного IP - и трафик экономится (часто, буржуйский), и дор гробится.

Да и вообще, надо ставить простенькие антифлудеры, чтобы в автоматическом режиму убивать. Я делаю примерно так: все, кто не поисковый робот, если сделали больше 10 запросов к html-странице за секунду, больше 100 запросов за минуту или больше 3000 запросов за час, попадают в бан на 10 секунд, 10 минут и 10 часов соответственно. Такой способ худо-бедно защищает от начинающих воров контента, хотя смысл, конечно, в другом.

M
На сайте с 20.08.2004
Offline
376
#3

спасибо за советы.

а может есть у кого список не нужных забугорных поисковиков, что бы запретить их в robots.txt?

что бы самому на это не тратить внемя?

спасибо.

M
На сайте с 20.08.2004
Offline
376
#4

на сколько грамотно для решения этой проблемы вот такое

User-agent: *

Disallow: /

User-Agent: Yandex

Disallow: /admin/

User-Agent: Aport

Disallow: /admin/

User-Agent: Mail.ru

Disallow: /admin/

User-Agent: Rambler

Disallow: /admin/

User-Agent: Google

Disallow: /admin/

User-Agent: MSN

Disallow: /admin/

User-Agent: Yahoo

Disallow: /admin/

или в моем понимании пробел?:)

Serboy
На сайте с 29.09.2005
Offline
94
#5

Miracle, так Вы запрещаете лазить по корневой (??) и /admin/

Нужно сделать так:

User-Agent: *

Disallow: /admin/

- это для всех.

I
На сайте с 22.10.2005
Offline
58
Iso
#6

Как уже сказал Serboy, строчки

User-agent: *

Disallow: /

запрещают индексацию всего сайта всем, что странно.

Вернее было бы написать примерно так:

User-agent: Yahoo! Slurp

Disallow: /

User-agent: msnbot

Disallow: /

и т.д. (определитесь со списоком ботов, которые Вам не нужны)

Проще всего сделать это, посмотрев статистику по юзерагентам за месяц (кто много качает, того и запрещать в robots.txt).

M
На сайте с 20.08.2004
Offline
376
#7

да.да я уже понял свою ошибку, я сделал обратное . запретил индексацицю всего сайта...

FM
На сайте с 21.04.2004
Offline
125
#8

купи лучше хостинг с большим трафом - рано или поздно тебе придётся это сделать....

Andreyka
На сайте с 19.02.2005
Offline
822
#9

http://dedic.ru/node/39 - читать тут

Не стоит плодить сущности без необходимости
M
На сайте с 21.11.2004
Offline
230
#10
Iso:
Я делаю примерно так: все, кто не поисковый робот, если сделали больше 10 запросов к html-странице за секунду, больше 100 запросов за минуту или больше 3000 запросов за час, попадают в бан на 10 секунд, 10 минут и 10 часов соответственно

А собственно как вы отделяете мух от котлет? Пожалуйста просвятите в данном топике.

Продвигаю домены руками (http://roke.ru)
12

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий