seocore

seocore
Рейтинг
143
Регистрация
25.09.2006
Andreyka:
Раскрою секрет. Я работал с Lxlabs очень плотно.
Вполне возможно, что я буду поддерживать дальнейшее развитие hypervm, так как до этого времени готовил русификацию и знаю продукт изнутри достаточно неплохо.

продукт добротный и хороший, сам пользуюсь на нескольких серверах... 🚬

Andreyka:
Сисадмин нужен еще и вебмастер
Которые сделают для поисков зеркало на статике и натравят туда
Ну а nginx будет пулять статику в ботов

о чем и речь идет...

а вообще представьте классическую картинку, - вебмастер на тарифе за 150 руб.\месяц, держит 20 партнерских шопов магазинов (по 100 тыс. динамич. страничек, хреновая организация кеширования, т.е. одна папка, в ней 60-70 тыс. файлов, т.е. iowait по "открытию" папки уже выходим за разумные рамки)... а еще у такого клиента пара варезников и с десяток MFS...

одного такого клиента хватит, чтобы при индексации его сайтов сервер капитально "нагружало" 🚬

kxk:
seocore, Можно 1 гбит сделать за мега бабло, причём оптическим линком прям в сервер, а не от свитча расшаренного на бог знает сколько машин в РФ. Просто в России народ привык к халяве :)

вопрос за какое бабло? - в США можно все это примерно в 10 раз дешевле организовать, причем с SLA ... что не скажешь о РФ... 🚬

Avaks:
А аптайм обычно зависит от качества оборудования в датацентре, оперативности саппортов дата-центра и технической оснащённости датацентра (генераторы, кондиционеры, УПСы и т.п.). Прямой связи со страной я не вижу.

не буду с Вами спорить, просто сравните аптайм ТОП10 хостеров в РФ, а потом ТОП10 хостеров ЕС, как говорится - почувствуйте разницу 🚬

а по поводу каналов - подскажите кто в РФ дает 1Гбит гарантированный на "выход" из ДЦ?

только не рассказывайте сказки, а то как правильно уже сказали - будет Вам 1Гбит за 15 тыс. руб\месяц, но только до свитча, а суммарные каналы у ДЦ в мир окажутся в 10Гбит ... 🚬

QuickAurum:
Здесь в теме народ писал что по сайту яху ходит, а трафик не несет. Зачем тогда он нужен?

дает трафик, причем довольно таки тематический, просто его мало в сравнении с Google, Яндекс, Rambler гигантами...

QuickAurum:
Это интересно, не знал. А че бывает из за дропа?

Яндекс тыкнувишсь видит что "коннекта нет", т.е. либо домен не существует, либо не продлили и т.п., и частота его "посещений" резко снижается (может через месяц зайти в следующий раз), но если же видит 5хх ошибочку, то разумеется это рассматривается им (да и не только Яндексом) совсем подругому 🚬

покрайней мере это из моих наблюдений ... кстати Яндекс посещает даже те сайты, которых в индексе нет, так что говорить о бесполезности Яхху сомнительно, Яндекс боты на заБАНенном сайте также бесполезны 🚬

кстати на тему ботов - еще САПА нехило так нагибает сервер, когда обходит странички с "проверками"... 🚬

Avaks:
А аптайм-то как от страны зависит? Надо на оснашённость ДЦ смотреть и на отзывы о хостере, а не на страну, где географически стоят сервера. ИМХО. 🚬

аптайм зависит от страны, так как качество каналов напрямую зависит от страны, географии и т.п. 🚬

QuickAurum:
Для OpenVZ как я выяснил софтовые и жесткие лимиты лучше работают на мелких VPSах когда увеличение памяти с 64 Мб до 256 Мб круто все ускоряет. Но на серьезных тарифах когда продают тариф с 1 Гб памяти ему не делают верхний лимит в 4 Гб, потому что если он получит всю память в софт лимите то убъет всю ноду

ага, так основная "маржа" идет у хостеров как раз с 64-512Мб ВПСок... так что XEN в этой нише проигрывает...

QuickAurum:
Я сумирую выводы. Если клиент на VDS спрашивает, что можно сделать если его ДДОСяст поисковики ему можно давать такую рекомендацию:

если клиента реально будут ддосить, то я думаю вы об этом узнаете еще раньше чем сам клиент, так как "пингивны полягут" не только на клиентской ВПСке :D

QuickAurum:
1 - настроить iplimit
2 - проверить ip ботов, если не понятные сетки, значит кто то притворяется поисковиком и его банить или через htaccess, или через файервол
3 - если поисковики беспонтовые как яху, байду и какие то еще, тоже банить как в пункте 2
4 - если поисковики хорошие типа яндекса, настроить crawl-delay в robots.txt и запретить смотреть не нужные страницы
5 - если всеравно тормозит, а банить яндекс жалко, то расширять тариф чтобы больше ресурсов было или оптимизировать скрипты
Что то еще нужно добавить?

банить поисковики типа Яхху, МСН, и прочие конечно можно, да только трафик они тоже приносят поисковой, а как известно он "конвертируется" в деньги, так что полюбому это не выход

максимально надо оптимизировать скрипты, кешировать все что можно, свести на минимум время генерации странички, лучше пусть больше скрипт жрет ОЗУ, но быстрее выводит страничку

а далее все за limit_conn + limit_rate + еще и limit_req (разумеется в nginx) ...

лучше уж отдавать 5хх ошибочку поисковому боту, чем тупо дропить пакеты на файрволе, видя 5хх они понимают что проблема техническая, т.е. бот просто зайдет попозже, а когда идет дроп - то это намного хуже 🚬

yesRuslik:
У нас можно адалт, принимаем вебмани, свой ДЦ в Праге по стандарту ISO 9001.
Подпись.

очень рекомендую ТС взять у yeshost это наверняка будет лучше, чем брать через реселлеров keyweb/leaseweb 🚬

UnixHost:
😮Пошел регатся на гмейле... :D

зато ваше мыло будет на таком надежном кластере, которому DDoS и падения не страшны :D

Всего: 1078