zzeus

zzeus
Рейтинг
74
Регистрация
04.01.2008

gandi.net - сижу там. аптайм 99.87 за последний год. единственное что напрягает - медленный саппорт, но при таком аптайме он не нужен.

slicehost.com - чуть дороже, быстрый саппорт, но ограничения по трафику в месяц.

Jake Foley:
total           used       free     shared    buffers     cached

Mem: 3943 2693 1249 0 162 1483
-/+ buffers/cache: 1047 2896
Swap: 8191 0 8191

у вас реально заюзан только гиг памяти. 3 занято кешами. Спите спокойно.

kxk:
zzeus, Оверселл меньше чем у других на VZ :) Андерселл это на XEN и по другим ценам.
Извините если вас моё правдолюбие убило.

меня убила цена за эти, даже не гарантированные ресурсы, учитывая, что я могу получить гарантированные в европе за ГОРАЗДО меньшие деньги.

покажите вывод: free -m

обратите внимание на строчку +/- cache - это и есть реально занятая приложениями память, без учета кеширования

kxk:
vandamme,
VDS-384
Место на диске: 16000 мб
Память : 384 мб
Процессор : 400 мгц
Трафик : 200 Гб
Выделенные ip : 2 из разных сетей класса С
Цена : 51$/месяц +10$ (Directadmin)

Впс без страшного оверселлинга, на нодах используються SAS диски (чего нет у большинства
.......

50$ за 384мб оперативки и 400мгц ЦПУ? При том, что вы откровенно заявляете, что у вас оверселл на нодах "нестрашный" (это когда VPS ноды должны быть всегда андерселл)?

Sla_Dom:
Блин, ну хоть бы предварительно емайл рассылку сделали о проблеме. Она длилась далеко не 5 минут.

Sla_Dom добавил 20.02.2009 в 16:04
cdi-host.ru, паника? Ну как вам сказать... Когда лег колокейшн, легла корпоративная почта, файловый сервер, то невольно запаникуешь...

кто-же такое в IB держит O_o

flashlight:
Читайте внимательно: перечисленные причины не входят в те, что определяют ресурсоемкость.
По практике уже давно стало ясно - что 3-4 недорогих хостинга намного лучше, чем один элитный.
Если бы хостинги относились к клиентам немного иначе, т.е. искали и расследвали причины перегрузок (такле бывает крайне редко) или просто ставили отсечку при пиковых нагрузках - ведь часто это бывает не по вине клиента. Но им проще выкинуть проблемного, чем разбираться.
При этом - парадокс заключается в том, что один сайт, который по словам хостинга перегружает сервер переносится к другому - и там жалоб нет. А с того, переносится, тоже перегружающий на первый - и тоже все в порядке. Отсего начинаешь задумываться, а все ли так, как оно есть на самом деле?

Повод задуматься - не пора ли купить VPS с гарантированными ресурсами и не парить себе моск?

FOXI.BY:
Т.е. предлагаете смотреть делает ли бот указанные в роботс зарержки между парсингом страниц? Так такое и в граберах очень давно есть, причем даже в пабликовских, мои самописные граберы умеют анализировать и роботс и я сам по дефолту ставлю задержку, чтоб не уложить хост, который парсю.
А к примеру Яхо ложил на такие указания и частенько грузит сервера жестким парсингом, не обращая внимания ни на какие указания...

Так что это совсем не выход. А вот Reverce IP Lookup и просмотр whois ip адреса - это выход, Яндекс не будет ходить с ip датацентра кейвеб, где абузы хорошо держат и такой софт оттуда на ура работает...

Если робот левый и не понимает claw-delay его забанит mod_evasive

alex_778:
я не верю )
предьявите факты

Понятно. Вы не в состоянии сделать Reverce IP Lookup. Судя по остальным постам вы абсолютно "не в теме" и начитались про страшных грабберов. Это действительно аппорт. Проверить можно сделав host <ip> если у вас есть ssh до хостера. Ну или через http://www.iwebtool.com/reverse_ip?domain=194.67.18.242.

Ваше недоверие вкупе с абсолютной безграмотностью и тем, что вы простите здесь помощи выглядит, мягко сказать, неадекватно.

Далее. Посылаю вас в google на тему claw-delay. Потом много думайте.

zzeus добавил 20.02.2009 в 00:02

FOXI.BY:
Так вы перебаните всех ботов (включая поисковых). Потому что.
Грабер контента (сателитостроителей и говносайтоклепателей) ничем не отличается от бота Яндекса, Гугла и т.п. Причем может ходить под юзер агентами этих поисковиков, собственно так оно и делается. А ip адресов поисковиков вы всех не знаете.
Потому единственный выход - следить за активными ботами, вручную анализировать их ip и банить конкретные ip или подсетки.

феерический бред. все нормальные поисковики умеют claw-delay. от левых ботов и грабберов отлично спасает mod_evasive.

mick7:
Не к добру это. Ухх. Чувствую зло грядет.

на самом деле это самое правильное. шаред-хостинг мертв для серьезных проектов года этак с 2004. Сейчас на шареде можно держать только сателлиты или легкие странички.

Всего: 849