Нужен специалист

123 4
юни
На сайте с 01.11.2005
Offline
902
#11
theCo6aka:
К Добровольскому обращайтесь

А кто это? И куда обращаться?

Light_78:
Вы строиться сами будете или есть помещение?

Предположим, что есть.

https://a-parser.com/ - парсер для профессионалов SEO, маркетологов, арбитражников и SaaS, https://searchengines.guru/ru/forum/944108 - прокси-сервис на базе операторов домашнего интернета, сотни тысяч IP-адресов, канал от 20 Мбит
RUS-HOSTING.RU
На сайте с 23.02.2008
Offline
106
#12
юни:
А кто это? И куда обращаться?

Наверное про него речь

Хостинг (http://rus-hosting.ru) Сдам в аренду сети IP /24, /22
Light_78
На сайте с 26.08.2005
Offline
52
#13
юни:

Предположим, что есть.

Я просто дам совет. Вам нужен объект. Иначе смогут дать информацию только общую. Просто Вам понадобятся планы помещения. Знать где стоят трансформаторы. Где подводится сеть. Я не знаю цен по Москве, но исходя из опыта 1 метр протяжки кабеля(сетевого) по городу стоит от 100$ до 250$. Если рассчитывать питание на 1 мВт, то метр кабеля от трансформатора до главного щитка обойдется за 1.000$. Т.е. реально надо знать сколько тянуть 10 метров или 100. Поэтому, чтобы получить точный расчет Вам нужно знать помещение... Какая крыша, сколько выдержит, предел по шуму... там столько мелочей... и они все стоят денег.

По питанию. Трансформатор на преобразовывает ВА в ВТ не 1:1 а только на 80%. Т.е. если у Вас 1000 кВА то это всего 800 кВт.

около 1/3 питания уходит на поддержку охлаждения и ups. T.e. из 800кВТ на серверы у Вас останется 500 - 550. Это то что потребуется покрыть UPS и климе. Дизель, в свою очередь должен зашиваться на 30% больше от общего потребления т.к. там "грязный" ток получается. Т.е. хотя бы на 1000 кВт.

Качественная пожарка на 1000 кубов 120 - 180 кусков...

Если интересует консультация такого рода можем пообщаться. Денег мне не надо :) т.к. план делать не буду. Но вообще такой план стоит за пятерочку.

юни
На сайте с 01.11.2005
Offline
902
#14

Light_78, спасибо за информацию, но меня больше интересует архитектура собственно ДЦ (сетей и оборудования), а не подготовка помещения к эксплуатации.

Но эти детали тоже полезны, если кто-то захочет дополнить/оспорить - милости просим.

Ещё раз спасибо.

Light_78
На сайте с 26.08.2005
Offline
52
#15

юни, у меня валяется один план на 350м2 ДЦ в общем помещении на 1000 м2. Хотите пришлю. Только он на А1. А у меня сканер на А4 :) Собирать будете сами. :)

юни
На сайте с 01.11.2005
Offline
902
#16

Light_78, если не жаль - присылайте. :)

Или лучше сразу дать ссылку на архив, в этой теме.

Light_78
На сайте с 26.08.2005
Offline
52
#17

сейчас на скан кого-то зашлю

Light_78 добавил 02.04.2010 в 14:18

Ушло в личку. Там 1й файл верхний левый угол, 8й - нижний правый

BG
На сайте с 23.03.2007
Offline
67
#18

Ответы на вопросы, которые Вы сформировали требует не только досконального знания различных технологий реализации систем физической инфраструктуры ЦОД, а также ИТ инфраструктуры, понимания коньюктуры рынка и многое другое, 40 минут это кране мало. У Вас есть техническое задания с перечнем Ваших требований?

Мне кажется, если Вы хотите получить достойное предложение, то одним двумя письмами Вы не обойдетесь, и времени на эту уйдет гораздо больше.

Попробуйте написать на этом форуме forum.telecombloger.ru там есть довольно люди с колоссальным опытом в строительстве ЦОД.

Вот тут кстати куча планировок http://telecombloger.ru/1678 ЦОД

Журнал о Дата-Центрах (http://dcjournal.ru/)
юни
На сайте с 01.11.2005
Offline
902
#19

BiGgi, спасибо, даже успел, прозвонившись, поговорить с парой компетентных товарищей. :)

vv-master
На сайте с 21.07.2009
Offline
10
#20
юни:

1) указать параметры по питанию/охлаждению/пожарке и прочим требуемым показателям,

Питание и охлаждение необходимо рассчитывать исходя из конкретного числа стоек. Потребление каждой стойки 2-5 кBт/ч. Разумеется, должно быть минимум 2 ввода с различных подстанций.

Кроме того, необходима автономная дизель генераторная установка (ДГУ), также модель подбирается в зависимости от рассчетной мощности потребления. К примеру, FG Wilson:

http://www.fgwilson.com/cda/layout?m=186446&x=7

Если хочется законным путем обойти рутину согласования проекта установки ДГУ с МЧС и экологами, то можно воспользоваться мобильной платформой.

Система кондиционирования подбирается исходя из тепловыделения используемого оборудования. Выделяемое оборудованием тепло приблизительно равно потребляемой электрической мощности. Можно использовать либо прецизионную либо канальную систему охлаждения с "зимним комплектом", позволяющим работать на охлаждение при температуре до -30. Конечно, если позволяет бюджет, то нужно использовать прецизионную систему охлаждения (как минимум раз в 5 дороже, зато соответствует европейским стандартам и не допускает даже незначительных скачков температуры). Реализуем систему горячих-холодных коридоров: ряды стоек стоят друг напротив друга, на лицевую часть стоек поступает холодный воздух, с задних частей стоек забирается горячий воздух. К примеру, используем кондиционеры Mitsubishi Electric мощностью 33.5 кВт в количестве, необходимом для покрытия потребляемой мощности, также не забываем учитывать резервирование.

Лучше всего использовать газовую систему пожаротушения, так как они прозрачны, не проводят электричество и не оставляют следов на оборудовании. Желательно использовать безопасные (условно, так как газ понижает уровень кислорода) для человека газы (такие как хладон, азот, аргон). Система пожаротушения будет рассчитываться от объема помещения и синхронизироваться с пожарной сигнализацией.


2) построить план разводки внутренней сети, в т.ч. указав количество и параметры маршрутизаторов,

План разводки внутренней сети будет зависеть от помещения: можно сделать распределенную топологию с несколькими залами и главной распределительной зоной, в которую будет сходиться магистраль со всех залов и заводиться оптоволокно провайдеров. В каждом зале своя горизонтальная распределительная зона (где устанавливаются коммутаторы, KVM, возможно, маршрутизаторы доступа) и аппаратная зона (стойки/шкафы).

Два магистральных маршрутизатора, которые будут осуществлять горячий резерв и на которых будет поднят eBGP-протокол с апстримами. В настоящий момент оптимальным на мой взгляд (цена-качество, поддержка IPv6, защита от DDoS) были бы маршрутизаторы производства Juniper. Учитывая масштабы (несколько сотен стоек), нужно смотреть в сторону MX-серии.

Несколько пограничных маршрутизаторов, которые будут добавляться по мере наращивания числа стоек (где-то один пограничный маршрутизатор на отдельный зал). Желательно обеспечить резервирование с помощью протокола HSRP (Hot Standby Redundancy Protocol) или GLBP (Gateway Load Balancing Protocol), чтобы при выходе из строя одного из маршрутизаторов - весь клиентский трафик автоматом пошел на другой (HSRP), либо балансировал между двумя (GLBP). Между маршрутизаторами поднять iBGP-протокол. В качестве пограничных можно использовать Juniper J6350. В принципе можно обойтись и без пограничных маршрутизаторов - все выводить на магистральные маршрутизаторы.

В качестве коммутаторов (опять же ИМХО, цена-качество) рекоммендую использовать коммутаторы Extreme. Устанавливаем два центральных коммутатора (Core Layer) с портами 10G (например, Summit X650-24X), соединяем их между собой и магистральными маршрутизаторами. Затем подключаем к ним коммутаторы (например, Summit X450-24X) уровня распределения (Distribution Layer) - каждый коммутатор будет подключен к каждому из центральных коммутаторов (будет отрабатывать Spanning Tree Protocol, для логического разрыва колец). Коммутаторы Access Layer будут "звездой" включаться в коммутаторы уровня распределения (Summit X350-48X, хватает на 2 стойки).


3) рассчитать ширину внешних каналов и предварительную конфигурацию наиболее востребованных серверов,

Ширину внешних каналов рассчитать достаточно сложно, не зная под какие проекты пойдут сервера, и как быстро будет заполняться ДЦ.

Внешние каналы всегда можно расширить, только нужно предварительно обсудить это с провайдерами, чтобы они имели данную техническую возможность. Начинать можно с пары гигабитных апстримов и одного гигабита в точку обмена трафиком национального значения.

Конфигурация серверов будет зависеть от целевого рынка и позиционирования ДЦ.


4) примерно оценить потребности будущей клиентуры, исходя из собственного опыта и рыночных реалий,

На мой взгляд, будущее за виртуализацией и облачными технологиями. Это и минимизация энергозатрат и максимизация использования ресурсов серверов. Можно реализовать крупный проект в этом направлении.


5) предложить варианты пиринга с точками обмена/"популярными" магистральщиками, и/или высказать свои детальные соображения по развёртыванию сети собственных каналов (исходя из теоретической задачи окучить население города 1) с парой-тройкой миллионов жителей и 2) в отсутствие крупных канальных операторов и хостеров-конкурентов).

Идеальным вариантом было бы подключиться напрямую к нескольким провайдерам международного значения (таких как Level3, Cogent, GBLX, ETT, Retn...). Если в месте размещения ДЦ провайдеры такого уровня не зашли, то нужно искать провайдеров национального масштаба, которые либо предоставят транспорт. Как уже было сказано, необходимо подключиться к национальной точке обмена трафиком, чтобы в дом напротив трафик не ходил через Франкфурт.

Город с парой-тройкой миллионов жителей и без крупных операторов в 2010 году звучит не очень правдоподобно. Но на мой взгляд - оптика в каждый дом сейчас наиболее востребована. На тех же свитчах (Summit X650-24X) строим кольца для ядра сети, в микрорайоны заходим свитчами уровня распределения (Summit X450-24X), в дома - уровня доступа (Summit X350-48X, абонентам можно и подешевле что-нибудь, те же D-Link).

Да, еще необходимо будет определиться с получением IP-адресов. IPv4 осталось 8%, на IPv6 народ переходит крайне нехотя. Поэтому с получением блока IPv4 необходимо будет поторопиться. Так как блок будет значительным, то Ripe предложит брать PA (Provider Aggregatable) блок и становиться LIR (Local Internet Registry).

dedicated servers, Xen VPS/VDS, hosting, IT-projects VV-MasteR DC (http://vv-master.com)
123 4

Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий