kostich

Рейтинг
223
Регистрация
24.03.2004
zBoolean:
Попросили оставить отзыв.
Я являюсь владельцем monitoringcs.com, а так же resseller.ru

ща и эти домены туда подсунем... у Керима ботнет мощный же.

Raistlin:
kostich, Ну вообще-то да... Ну или во всяком случае хост-трекер показали и слова, что оно легло от 500 ботов.

Raistlin, флешмоб необходим полюбому... на следующей неделе надо начинать. Но сейчас, когда пятница вечер, на злобу дня самый лучший хит - его реселам, само собой с сиськобота, заказали тестовый дидос на 46.4.85.227 ... таки сами себя досят... 🍿

mower, а тебе не кажется, что на сервере с портом в 100 мегабит можно только от своих дидосов защищать? 🍿

Raistlin:
kostich, Ну вообще-то да... Ну или во всяком случае хост-трекер показали и слова, что оно легло от 500 ботов.

и как ему теперь с такими корешами по цеху тут на форуме общаться?

SML007:
mower, это уже как спам можно расценивать. Вторая тема за 2 дня.

а они СЕ досили что ли?

mower, так ты и Керим одно лицо?

Romka_Kharkov:
Таки угадал :D :D, нет , пожалуй я знал! :D :D
(Я искренне надеюсь , что вы ошиблись относя JumboFrame к прикладному уровню OSI или что тогда "сетевой сервис"?)

нет, не ошибся. жамбу придумывали для ускорения работы сетевых сервисов.

Romka_Kharkov:
А я разве сказал обратное? Я просто удостоверил вашу позицию, сказав, что при правильном оперировании кешом - будет счастье, а отдавать 20TRB как вы сказали естественно из памяти мало кто сможет, но думаю это все таки реально :)

эффективность кэша будет близка к нулю. посмотрите на эффективность раздачи с 2Тб данных... 2Тб тумб в адалте это фигня.

Romka_Kharkov:

так же путем банального ICMP ping было проверено что из 10.000 пакетов потери составили 0% .... как еще это можно описать? карма?

дебаг надо было включать - раз, а сеть проверять большими пакетами - два.

Romka_Kharkov:

Тут вы просто капитан очевидность :) что еще сказать, но вот спросите у ТС , ему надо оперировать 200 TRB данных ? или 20 TRB ? я че-то уверен что там и 1го TRB нету.... по этому земные объемы памяти ему вполне могут помочь.

я в контексте линейной массштабируемости и архитектуры... а ТС по ходу хватит и одного сервера.

Romka_Kharkov:

Кстати из подобных по объему решений тестировал максимально массив ~50 TRB, при ужасно дорогом контролере стоимостью около 1k$ (Adaptec).

ну у меня опыт больше с корзинами. а опыт такой, что резервную корзину под руками иметь надо в любом случае.

Romka_Kharkov:
Спрашивайте, я не особый знаток NFS, я рассказал о том, что тестировал.
Джамбофреймы для увеличения производительности сети - угадал ? 🤣D:D

джамбо для увеличения производительности сетевых сервисов. вот это всё как форматирование диска. если на диске файлы по 1Гб минимум, то зачем этот диск мелкими кусками форматировать?

Romka_Kharkov:

... если NFS не работает нормально при стандартном размере кадра, то о чем можно говорить ? Вы еще скажите что для его нормальной работы надо пару свичей правильных купить, тогда я вас вовсе зауважаю :))))

ну на дворе и сетевухи уже правильные есть, но это к сбоям вашей тестовой системы мало какого отношения имеет. диагностика штука сложная... источник подобных проблем примерно представляю, но это на живой системе надо проверять.

Romka_Kharkov:
А это сколько миллиардов*миллиарды аватар ?:))))

это к любому сервису относится, т.к. эффективность кэша при массовой раздаче от объема содержимого зависит... это к любому контенту относится.

Romka_Kharkov:
А для любителей и ценителей NFS поясняю - оно не работает !!!

Роман, когда я прошу девушку перерстать жевать устрицу и тупо её проглотить, то мы потом общаемся за вкус устриц. Если тупо проглить, то оно будет условно вкусно конечно... деликатес как никак... а если пожевать, то результат спорный... другое дело лобстеры какие или омары... так вот я NFS под фрей хаваю с 97 года и граждан что-то там поясняющих могу на раз спросить... NFS давно уже не устрица и повара в виде NetApp для неё не надо. Появились жамбафреймы, появились свичи умеющие наманую жамбу.. вы вкугсе зачем в свичах делают поддержку жамбафреймов?

Romka_Kharkov:

что 2-3-4-5 раз в неделю стабильно отваливается NFS, и именно он, ни тачка падает, ни каналы рвутся (везде 100Mb/s в приделах одной стойки), а просто теряется связь по NFS с нодами на которых разложен контент.

поясните мне, пожалуйста, как нода может отвалиться от нфс сервера и умолчать о причине потери связи? это фантастика.

kostich добавил 03.06.2011 в 02:44

Romka_Kharkov:
Актуальными данными в моем случае принято считать 5-10 % от общей массы...

ну вот подсчитайте сколько будут 5% от 20Тб ... а если от 200Тб?

Boris A Dolgov:
А разве это проблема?

замечая как эпизодически всякие крупнячки испытывают напряги с отдачей конкретного файла... ТАКИ ДА!

Boris A Dolgov:
Горячий файл всегда можно скопировать на быстрый диск/незагруженный сервер, правда это снова несколько усложнит архитектуру,...

это её полностью изменит.

Boris A Dolgov:

но не более чем добавлением haproxy в самом худшем случае.

Борис, а тем временем напоминаю, что у NFS тюненгуемый кэш на уровне блоков... как на самом NFS сервере, так и на его клиенте. Современные админы обычно невкугсе про это. Про NFS мне чисто потроллить реально. Все что я делал на NFS успешно работает, за исключением мест где оно на выделенном сервере... ну там если он падает, то сами понимаете... падает всё. Мне просто неприятно когда кидают камень в старый и добрый NFS. Можно все перевести в плоскость раздачи файлов и системных вызовов. За всю историю юниксов оптимизационных фишек разных было много, но это всё не предназначалось для многогиговых сливов мелких или очень больших файлов. Есть простая оптимизационная задача рандомного чтения с дискового массива. Кстати, в Интернете очень много про алгоритмы работы рейдов написано... занимательное чтиво. Возвращаясь к теме NFS подмечу, что производительности по чтению файлов там предостаточно... оно всё как дополительный кэш-слой-диспетчер по распределению нагрузки.

Обычный программист скажет, что давайте файл быстренько подсосем в память и будем раздавать... самый популярный особенно.... 1% от 500 миллионов файлов будет превышать суммарный объем памяти всего кластера. Не мне Вам объяснять как это всё работает... ну если для других, то чуть чуть можно... во времена динозавров при раздаче большого файла было так: если блоковое чтение для одного клиента, то веб-сервер читает файл последовательно и раздает с учетом скорости скачки... а вот если для 1000 клиентов, то веб-сервер читай файл параллельно 1000 раз последовательно и раздает клиентам с учетом скорости скачки. Поясните мне таки на пальцах что с тех самых пор глобального изменилось?

kostich добавил 03.06.2011 в 02:19

А, забыл добавить... фотохостинг это не соц. сеть... давайте вот сделаем хостинг аватарок... какую эффективность кэша спрогнозируете?

Всего: 2667