- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Маркетинг для шоколадной фабрики. На 34% выше средний чек
Через устранение узких мест
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Какие примерно затраты и сколько надо серверов, администраторов и т.д. для высоконагруенных высокопосещаемых проектов?
Например как www.auto.ru, www.drom.ru, www.avito.ru и тд
То есть доски, агрегаторы и т.д. с посещаемостью 200-500 тыс. уников в сутки.
Я так понимаю виртуальным сервером с затратами 100$ в месяц они точно не обходятся? Какие примерно бюджеты тогда?
Dimank, вы сейчас так пошутили?(это не типовые задачи и сказать сколько надо, никто не сможет. От 1 до бесконечности =))
Практически все эти сервисы используют кластерную системы. Это не 1 и даже не 2 сервера, а десятки и сотни и они увеличиваются по мере роста нагрузки на определенные узлы. На HL в этом году выступал представитель Avito и рассказывал как устроен их сервис, погуглите в интернете есть записи скорее всего.
На самом деле от одного до пары тройки. У них другие проблемы и затраты, к примеру защита от DDOS.
От 1 до бесконечности =))
Совершенно верно.
С 200 тысячами в сутки - равномерно распределённых по часам зашедших просто "почитать" и один сервер справится, а вот с 500 тысячами зашедших единомоментно добавить свой контент, использовать фильтры/выборки/поиск и 50 серверов немного.
ОК. Спасибо. Примерно понял))
То есть вполне реально и сотни тысяч и даже миллионы руб. в месяц...
Добрый день.
Какие примерно затраты и сколько надо серверов, администраторов и т.д. для высоконагруенных высокопосещаемых проектов?
Например как www.auto.ru, www.drom.ru, www.avito.ru и тд
То есть доски, агрегаторы и т.д. с посещаемостью 200-500 тыс. уников в сутки.
Я так понимаю виртуальным сервером с затратами 100$ в месяц они точно не обходятся? Какие примерно бюджеты тогда?
Очень много вопросов к устройству системы - архитектура, типовые запросы, требования по времени ответа и т.п.
Могу сказать что 2-3M посетителей в месяц (15-30k "глубоких" пользователей) для сайта типа Avito можно держать на 2-6 серверах с общей арендой ~500 евро в месяц. Мы на нашем проекте можем поднять цифры примерно в 3 раза по daily без серьёзного увеличения затрат.
Чтобы цифры были такими - надо и приложение заточить правильно и сервера подобрать не на первой попавшейся площадке.
Но это - реальные цифры из работающего здесь и сейчас проекта.
Для роста на порядок от наших текущих нагрузок нам понадобится достаточно сильно пилить архитектуру в разработке (потому что такие цифры выпадают из business-scope - нет столько трафла даже и поэтому мы к нему и не готовы), но сервера тогда потребуют, при нашей экспертизе, 3-5к евро/месяц. Точнее оценить сложно.
И закладывайте ещё, что сервера тут могут стоить не так дорого, как люди, которые умеют все эти кластера правильно готовить, настраивать и обслуживать.
А вообще для произвольного проекта ответить на этот вопрос крайне сложно - нужно профилировать систему, подбирать железки и всё такое.
И там легко могут выходить миллионы рублей в месяц, без проблем :)
ОК. Спасибо. Примерно понял))
То есть вполне реально и сотни тысяч и даже миллионы руб. в месяц...
+/- 500.000 руб/мес
А к чему вопрос?
на таком сервисе, крайне желательно иметь HA кластер - то есть некотрое число фронтэндов, разнесенных по разным дц (или CDN) и несколько бэкэндов в зеркале, от которых можно отделить сервера БД.
для нескольких телепередач разрисовывали инфраструктуру лет 5 назад - де то около 30-50к было уников, перед программой пиковало до 150-200к. на тот момент все хозяйство выходило около 60к,
Ключевой вопрос для таких сервисов и проектов не столько скорость отдачи информации клиенту - сколько доступность сервиса. Ибо больше стоимости инфраструктуры может стоить недоступность сервиса.
Сегодня быстрый сервер с кучей ядер и очень быстрыми IOPS по дискам можно собрать или арендовать относительно недорого. Другое дело если эта машинка ляжет. То сервис начнет терять хорошие финансы.
Поэтому кластеры, в том числе распределенные по нескольким ДЦ - скорее необходимость обеспечения доступности, нежели скорости отдачи информации на запрос клиента. Тут линейно не посчитать, кейс бай кейс будет.
Ключевой вопрос для таких сервисов и проектов не столько скорость отдачи информации клиенту - сколько доступность сервиса. Ибо больше стоимости инфраструктуры может стоить недоступность сервиса.
Сегодня быстрый сервер с кучей ядер и очень быстрыми IOPS по дискам можно собрать или арендовать относительно недорого. Другое дело если эта машинка ляжет. То сервис начнет терять хорошие финансы.
Поэтому кластеры, в том числе распределенные по нескольким ДЦ - скорее необходимость обеспечения доступности, нежели скорости отдачи информации на запрос клиента. Тут линейно не посчитать, кейс бай кейс будет.
Ну если принять за аксиому что падают и все и всегда, то на один сервер в одном ДЦ никто ни в жизни такого не поставит :)
Правильнее говорить о допустимом времени простоя в случае отказа, классификации отказов и т.п.
У нас минимально допустимый SLA 99.7, в норме мы имеем 99.91 в-среднем по году
Нет проблем сделать больше, но стоимость каждой девятки увеличивает стоимость инфраструктуры и её поддержки нелинейно
Если три девятки мы можем в текущей инфраструктуре делать стабильно и просто, то четвертая девятка требует перехода к другим схемам фейловера и балансировки, что увеличивает стоимость минимум на порядок.
Но стоимость построения этой девятки в нашем случае будет выше, чем прибыль от неё.
Что же касается "множественных датацентров" то тут столько подводных камней что прям ууу.
Какое допустимое время потери данных? Какой интервал до фейловера? Какое время прогрева датацентра резерва?
Все эти вопросы продавцы облаков опускают и продают "счастье всем", которое никого ни от чего не спасёт.
Селектел вон облако VMWare запустил. При отказе основного датацентра всё грузится из резервного. ТАЧКИ СТАРТУЮТ ЗАНОВО. Прогретые кеши? Не, это не сюда (хайлоад!!).
А как насчет latency у stretched vsan? У них между ДЦ в Спб не такое большое расстояние, но положить на этот vsan базу данных - надо быть отчаянным человеком. Да даже на обычный SAN БД положить - это отчаянный шаг. Stateful же.
Думать про катастрофоустойчивость необходимо. Но нужно понимать как это работает. И после построения системы регулярно дёргать рубильник для проверки того что всё отработает штатно.
А кто может поделиться хорошими сайтами и статьями по хайлоаду? В рунете только рухайлоад, по-моему...