Здравствуйте!
Core i7 3770 16Гб 2х1Тб 20ip 100Мбит/с Петербург 4500р/м
Доброго времени!
На сервере проводятся работы, на работу сервиса это не влияет, звонки обрабатываются в штатном режиме.
Как вариант, поставить на домашний компьютер фтп сервер и настроить бэкап с хостингов на удаленный фтп, во всех распространенных панельках есть такая возможность.
Осторожно, господа, предупреждаю о непорядочности ТС.
Осторожно, идолопоклонники Xeon'а могут и под Вами начать костер разводить :)
Извиняюсь, не верно понял Ваш пост, дурным делом подумал Вы утверждаете что у 1Гбит сетевушки потолок в 500Мбит.
Гуглим на тему "тесты сетевых гигабитных карт". Смотрим результаты, ищем там реалтек. Мной специально тестировалась не просто дешевая сетевушка, а худшая. Не забываем про задержки прикладного протокола. Признаться, даже порадовался что удалось из этого трэша выжать и 500Мбит. Далее, задача была не добиться 1Гбит, а показать что при значительном трафике, в 2,5 раза превышающем 200Мбит про которые изначально шла речь, нагрузка по прерываниям на самых простых на рынке сетевушках не будет хоть сколько-нибудь влиять на cpu.
Не забываем в общем для чего все делалось.---------- Добавлено 28.04.2012 в 00:10 ----------
Конечно. Как-то даже когда это мешало при довольно специфичной задаче пытался распределить по разным. Не помню чем закончились попытки, скорей всего ничем.---------- Добавлено 28.04.2012 в 00:21 ----------
Вы пытаетесь затеять новое обсуждение сравнения скорости передачи дешевых сетевушек с дорогими? Увольте, даже начинать на эту тему не буду, может кто другой подключится, уже достаточно тут попотел ))) Да и бессмысленно, тем более что в этом с Вами согласен заочно.
Какие уважаемы люди подтянулись! (не сочтите за сарказм :))
Согласен с Вами что специфичные задачи могут несколько лучше выполняться на хороших интеловских сетевушках. По поводу чисто сетевых задач. Есть мост через который идет до 200Мбит/c. На нем BGP, фаирволл с небольшим кол-вом чисто запрещающих правил и по мелочи какие-то вещи, так или иначе взаимодействующие с проходящим через него трафиком. Все это на обычной десктопной материнке, сетевушки самые простые. Хороший сервер ставить не захотели, т.к. просто расходный материал, рядом стоит точно такой же, готовый взять на себя задачи первого.
Нагрузка по прерываниям держится около 2-3%. Вот что интересно, нагрузка по прерываниям начинает расти лишь в случае добавления очень большого кол-ва правил в ipfw.
Еще одно наблюдение. Простенький в плане железа сервер с обычным сайтом. Сайт начинают ддосить GET к /. Около 3-4к ботов. Пока не начинаешь добавлять ботов в iptables, нагрузка по прерываниям равна практически нулю. После запуска скрипта, через какое-то время видим что в iptables оказалось под 30к адресов, смотрим на нагрузку по прерываниям, она уже 50%.
Возможно я не прав, но напрашивается вывод что нагрузка по прерываниям начинает расти не от процессов, происходящих на физическом, канальном или сетевом уровнях с которыми работает сетевая карта и её драйвер, а в тот момент, когда подключается прикладной. Причем далеко не любой, работающий с проходящим трафиком. Пример с ддосом -- апач работает без нагрузки по прерываниям, после подключения iptables она растет.
Возможно! C тестами постараюсь продолжить. Ваши посты на тему сетевых технологий всегда интересно и полезно читать, часто можно узнать для себя что-то новое, как тонкий луч света в пучине домыслов и невежества :)
Если погуглить на тему тестов сетевых карточек, будет видно что практически ни одна из них не способна принять/отдать 1Гбит, плюс я умышленно взял чипсет, традиционно считающийся ущербным и вызывающий у опытных людей только отрицательные эмоции. Сюда можно прибавить задержки прикладного уровня -- FTP. И тест, конечно, не совсем чистый, но лучше чем ничего -- есть отправная точка от которой можно продолжить, тем более что уже и Вы и Павел сделали полезные замечания.
Спасибо и за Ваше замечание. Чуточку уточню -- на обоих машинах файлы были расположены на ram-диске, еще мне кажется в прикладной протокол скорость сильно не уперлась, т.к. была не такая низкая (500Мбит). И попробую сделать предположение, что если получится разогнать полосу до идеальных 1Гбит нагрузка сильно не изменится.
По поводу неверности -- неверный он не потому что показывает обратные от действительности результаты, а лишь не на все 100% способен загрузить сетевушки. Когда я его делал, речь шла о том что на топовых сетевушках у человека было >10% всего лишь при 200Мбит/c, якобы, только за счет проходящий через сетевушку трафик. Я показал что даже при вмешательстве прикладного уровня, при 500Мбит/c на самых дешевых сетевушках нагрузка от прерываний не растет более 1.5%.
Постараюсь попробовать при помощи iperf. И поблагодарю от всего рунета за один из лучших блогов на айтишную тему ☝
Эх, слились куда-то все крикуны когда обсуждение перешло из области пустого размахивания руками в область реальных тестов, печально...
Похоже и от господина klamas'а, отправлявшего меня снова за парту, ответа я так и не дождусь. Хотя да, время -- деньги :)
О чем мне должно сказать это очередное сомнительное утверждение, снизойдите.
#!/bin/bash
for i in `seq 1 100`;
do
dd if=/dev/zero of=testfile$i count=1 bs=10M
done
lftp -e 'put testfile'$i'; bye' -u user,pass ftp.test.ru >/dev/null 2>&1 &
Перед проведением теста на принимающей стороне были убраны все ограничения на кол-во процессов принимающего фтп сервера. Убедились что файлы льются одновременно:
ps aux |grep lftp |wc -l (на отдающей стороне)
ps aux |grep proftpd |wc -l (на принимающей)
Так же это видно просто по листингу папки, в которую они складываются.
Абсолютно ничего не поменялось -- поток около 500Мбит/c, прерывания съедают 1-1.5% Что теперь скажете?
P.S. Кстати кто там всеми руками цеплялся за статью на http://www.thg.ru/mainboard/20040429/print.html, обратите внимание на дату публикации и дату выпуска моделей десктопных материнских плат которые там тестируются, это даже не смешно, можно было бы еще тест 286-386 машин раскопать 20-ти летней давности.