kostich

Рейтинг
223
Регистрация
24.03.2004
Magistr:
Подскажите кто прав, могу ли я расчитывать на то, что все таки что-то решат с сервером и с атакой этой?

как правило можете расчитывать только на счета за трафик 😂

Слава Шевцов:
Нет. Повторюсь: кеш можно делать для многоразовых запросов (спросили три раза и более). В поисковиках с этим проблема - более 3/4 всех запросов уникальны.

Слава, если поисковик в сутки выдает, к примеру, 8Тб трафа, то почему быстрый 30Тб сторадж для прекешинга на различных уровнях не есть выход?

Слава Шевцов:
Сам кеш трудно создать из-за того, что подавляющее большинство запросов - редки. Проще говоря, если обновлять базу раз в неделю и держать неделю данные в кеше, то только пятая часть запросов будет идти через кеш. Остальные будут строиться с нуля.

sata2scsi дешевое решение..... 30Тб могут спасти поисковик на пехапе?

Слава Шевцов:
Дешевле. Однозначно. Пока не встают сложные задачи, когда знания и интеллект стоят больше умения работать на том или ином языке.

Слава, ну это все из области - а зачем ставить linux, когда и на freebsd можно затюнить kern.nbuf? Ну да, хреновый во FreeBSD read cache буфер... а шо делать?

ps. Ну и на пехапе конфетку сделать же можно.

Да, кстати, не понял почему кэш нельзя хранить на диске. Сколько нужно трафа выдавать? Гигабит? Мы ночью тут по другой теме чуть спорили, но тем не менее задача аналогичная.

Поставьте под кэш корзинки infortrend и результаты поиска держите там - полгигабита с одной корзины на 5к конектов более чем реально. Это реальная цифра с SATA2SCSI320 корзинки. Ну соберите там террабайт надцать на SATA и этих корзинах... вот вам и кэш уже реальный. Чо сразу в мемкашед то перется, оператива она в любом случае дороже SATA... главное 3 секунды озвучили, так что memcached берем назад... а тут понимаешь ли выдув наманый устроить можно. Секунды какие-то еще мерять... в мегабитах давайте - так проще.

ps. Такие корзины в данный момент ликвиднее серверов с кучей оперативы.... инвестор просто кончит от радости.

Слава Шевцов:
Может и спасут. Не знаю как сортировать с помощью хеша :-)) Можно попробовать использовать методику Google MapReduce. Но не знаю, что быстрее: в L1 сортировкой искать первые 10 записей или вычислять Map, а потом по нему бежать и собирать значения (Reduce), с учётом возможности одинаковых значений. Хотя можно попытаться Map в L2 запихнуть...

http://en.wikipedia.org/wiki/Bloom_filter

ps. не уловил ход мыслей... а зачем нам сортировать?

волшебные хэши спасут мир.

denver23:
неужели ни у кого нет хоть примерной статистики по количеству посетителей на VDS (которые я привел)
и какой небудь опыт (может кого-то выгнали от hostera интересует какая нагрузка была сколько посетителей и т.д)

Опять измеряем пингвинов в попугаях... вчера мой френд после нескольких ночных бдений изрек - да, на эту страницу будет всего 2 ляма хитов, фигли там... и тут вот понеслась - на странице картинок штук 50, а это уже 102 миллиона хттп запросов... и вот короче эти все запросы пиком в 8 часовой период примерно и т.д. и т.п.... и я его даже уже не тянул, как мы пришли к тому, что надо держать до 50к конектов одновременно.... ну т.е. 5 серверов по хорошему ставить, что бы и запас какой-то был.

luxs:
Ориентировочно, сколько запросов в секунду выдерживаем MySQL база?

Ну например надо вытащить строчку в базе размером 1000 000 записей по ключу который не является индексом. Сколько такого можно делать в секунду?

база в оперативку с индексом влезает то?

kod_ssilki_ru:
Зря Вы Фастнекст не попробовали - получили бы кучу впечатлений

я бы вообще в этой теме написал бы "выбирайте мастерхост", да условия заданные ТС не позволяют... МХ хоть откровенным кидаловом не занимается.

Всего: 2667