- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
К Добровольскому обращайтесь
А кто это? И куда обращаться?
Вы строиться сами будете или есть помещение?
Предположим, что есть.
А кто это? И куда обращаться?
Наверное про него речь
Предположим, что есть.
Я просто дам совет. Вам нужен объект. Иначе смогут дать информацию только общую. Просто Вам понадобятся планы помещения. Знать где стоят трансформаторы. Где подводится сеть. Я не знаю цен по Москве, но исходя из опыта 1 метр протяжки кабеля(сетевого) по городу стоит от 100$ до 250$. Если рассчитывать питание на 1 мВт, то метр кабеля от трансформатора до главного щитка обойдется за 1.000$. Т.е. реально надо знать сколько тянуть 10 метров или 100. Поэтому, чтобы получить точный расчет Вам нужно знать помещение... Какая крыша, сколько выдержит, предел по шуму... там столько мелочей... и они все стоят денег.
По питанию. Трансформатор на преобразовывает ВА в ВТ не 1:1 а только на 80%. Т.е. если у Вас 1000 кВА то это всего 800 кВт.
около 1/3 питания уходит на поддержку охлаждения и ups. T.e. из 800кВТ на серверы у Вас останется 500 - 550. Это то что потребуется покрыть UPS и климе. Дизель, в свою очередь должен зашиваться на 30% больше от общего потребления т.к. там "грязный" ток получается. Т.е. хотя бы на 1000 кВт.
Качественная пожарка на 1000 кубов 120 - 180 кусков...
Если интересует консультация такого рода можем пообщаться. Денег мне не надо :) т.к. план делать не буду. Но вообще такой план стоит за пятерочку.
Light_78, спасибо за информацию, но меня больше интересует архитектура собственно ДЦ (сетей и оборудования), а не подготовка помещения к эксплуатации.
Но эти детали тоже полезны, если кто-то захочет дополнить/оспорить - милости просим.
Ещё раз спасибо.
юни, у меня валяется один план на 350м2 ДЦ в общем помещении на 1000 м2. Хотите пришлю. Только он на А1. А у меня сканер на А4 :) Собирать будете сами. :)
Light_78, если не жаль - присылайте. :)
Или лучше сразу дать ссылку на архив, в этой теме.
сейчас на скан кого-то зашлю
Light_78 добавил 02.04.2010 в 14:18
Ушло в личку. Там 1й файл верхний левый угол, 8й - нижний правый
Ответы на вопросы, которые Вы сформировали требует не только досконального знания различных технологий реализации систем физической инфраструктуры ЦОД, а также ИТ инфраструктуры, понимания коньюктуры рынка и многое другое, 40 минут это кране мало. У Вас есть техническое задания с перечнем Ваших требований?
Мне кажется, если Вы хотите получить достойное предложение, то одним двумя письмами Вы не обойдетесь, и времени на эту уйдет гораздо больше.
Попробуйте написать на этом форуме forum.telecombloger.ru там есть довольно люди с колоссальным опытом в строительстве ЦОД.
Вот тут кстати куча планировок http://telecombloger.ru/1678 ЦОД
BiGgi, спасибо, даже успел, прозвонившись, поговорить с парой компетентных товарищей. :)
1) указать параметры по питанию/охлаждению/пожарке и прочим требуемым показателям,
Питание и охлаждение необходимо рассчитывать исходя из конкретного числа стоек. Потребление каждой стойки 2-5 кBт/ч. Разумеется, должно быть минимум 2 ввода с различных подстанций.
Кроме того, необходима автономная дизель генераторная установка (ДГУ), также модель подбирается в зависимости от рассчетной мощности потребления. К примеру, FG Wilson:
http://www.fgwilson.com/cda/layout?m=186446&x=7
Если хочется законным путем обойти рутину согласования проекта установки ДГУ с МЧС и экологами, то можно воспользоваться мобильной платформой.
Система кондиционирования подбирается исходя из тепловыделения используемого оборудования. Выделяемое оборудованием тепло приблизительно равно потребляемой электрической мощности. Можно использовать либо прецизионную либо канальную систему охлаждения с "зимним комплектом", позволяющим работать на охлаждение при температуре до -30. Конечно, если позволяет бюджет, то нужно использовать прецизионную систему охлаждения (как минимум раз в 5 дороже, зато соответствует европейским стандартам и не допускает даже незначительных скачков температуры). Реализуем систему горячих-холодных коридоров: ряды стоек стоят друг напротив друга, на лицевую часть стоек поступает холодный воздух, с задних частей стоек забирается горячий воздух. К примеру, используем кондиционеры Mitsubishi Electric мощностью 33.5 кВт в количестве, необходимом для покрытия потребляемой мощности, также не забываем учитывать резервирование.
Лучше всего использовать газовую систему пожаротушения, так как они прозрачны, не проводят электричество и не оставляют следов на оборудовании. Желательно использовать безопасные (условно, так как газ понижает уровень кислорода) для человека газы (такие как хладон, азот, аргон). Система пожаротушения будет рассчитываться от объема помещения и синхронизироваться с пожарной сигнализацией.
2) построить план разводки внутренней сети, в т.ч. указав количество и параметры маршрутизаторов,
План разводки внутренней сети будет зависеть от помещения: можно сделать распределенную топологию с несколькими залами и главной распределительной зоной, в которую будет сходиться магистраль со всех залов и заводиться оптоволокно провайдеров. В каждом зале своя горизонтальная распределительная зона (где устанавливаются коммутаторы, KVM, возможно, маршрутизаторы доступа) и аппаратная зона (стойки/шкафы).
Два магистральных маршрутизатора, которые будут осуществлять горячий резерв и на которых будет поднят eBGP-протокол с апстримами. В настоящий момент оптимальным на мой взгляд (цена-качество, поддержка IPv6, защита от DDoS) были бы маршрутизаторы производства Juniper. Учитывая масштабы (несколько сотен стоек), нужно смотреть в сторону MX-серии.
Несколько пограничных маршрутизаторов, которые будут добавляться по мере наращивания числа стоек (где-то один пограничный маршрутизатор на отдельный зал). Желательно обеспечить резервирование с помощью протокола HSRP (Hot Standby Redundancy Protocol) или GLBP (Gateway Load Balancing Protocol), чтобы при выходе из строя одного из маршрутизаторов - весь клиентский трафик автоматом пошел на другой (HSRP), либо балансировал между двумя (GLBP). Между маршрутизаторами поднять iBGP-протокол. В качестве пограничных можно использовать Juniper J6350. В принципе можно обойтись и без пограничных маршрутизаторов - все выводить на магистральные маршрутизаторы.
В качестве коммутаторов (опять же ИМХО, цена-качество) рекоммендую использовать коммутаторы Extreme. Устанавливаем два центральных коммутатора (Core Layer) с портами 10G (например, Summit X650-24X), соединяем их между собой и магистральными маршрутизаторами. Затем подключаем к ним коммутаторы (например, Summit X450-24X) уровня распределения (Distribution Layer) - каждый коммутатор будет подключен к каждому из центральных коммутаторов (будет отрабатывать Spanning Tree Protocol, для логического разрыва колец). Коммутаторы Access Layer будут "звездой" включаться в коммутаторы уровня распределения (Summit X350-48X, хватает на 2 стойки).
3) рассчитать ширину внешних каналов и предварительную конфигурацию наиболее востребованных серверов,
Ширину внешних каналов рассчитать достаточно сложно, не зная под какие проекты пойдут сервера, и как быстро будет заполняться ДЦ.
Внешние каналы всегда можно расширить, только нужно предварительно обсудить это с провайдерами, чтобы они имели данную техническую возможность. Начинать можно с пары гигабитных апстримов и одного гигабита в точку обмена трафиком национального значения.
Конфигурация серверов будет зависеть от целевого рынка и позиционирования ДЦ.
4) примерно оценить потребности будущей клиентуры, исходя из собственного опыта и рыночных реалий,
На мой взгляд, будущее за виртуализацией и облачными технологиями. Это и минимизация энергозатрат и максимизация использования ресурсов серверов. Можно реализовать крупный проект в этом направлении.
5) предложить варианты пиринга с точками обмена/"популярными" магистральщиками, и/или высказать свои детальные соображения по развёртыванию сети собственных каналов (исходя из теоретической задачи окучить население города 1) с парой-тройкой миллионов жителей и 2) в отсутствие крупных канальных операторов и хостеров-конкурентов).
Идеальным вариантом было бы подключиться напрямую к нескольким провайдерам международного значения (таких как Level3, Cogent, GBLX, ETT, Retn...). Если в месте размещения ДЦ провайдеры такого уровня не зашли, то нужно искать провайдеров национального масштаба, которые либо предоставят транспорт. Как уже было сказано, необходимо подключиться к национальной точке обмена трафиком, чтобы в дом напротив трафик не ходил через Франкфурт.
Город с парой-тройкой миллионов жителей и без крупных операторов в 2010 году звучит не очень правдоподобно. Но на мой взгляд - оптика в каждый дом сейчас наиболее востребована. На тех же свитчах (Summit X650-24X) строим кольца для ядра сети, в микрорайоны заходим свитчами уровня распределения (Summit X450-24X), в дома - уровня доступа (Summit X350-48X, абонентам можно и подешевле что-нибудь, те же D-Link).
Да, еще необходимо будет определиться с получением IP-адресов. IPv4 осталось 8%, на IPv6 народ переходит крайне нехотя. Поэтому с получением блока IPv4 необходимо будет поторопиться. Так как блок будет значительным, то Ripe предложит брать PA (Provider Aggregatable) блок и становиться LIR (Local Internet Registry).