- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
ДЦ есть и свои, и чужие. Мы ведь не предлагаем услуги дата-центров, а предлагаем собственные услуги. В этих услугах самая важная часть строится и обслуживается нами - сеть, каналы связи, софт, проект, система, оборудование. Качество услуги и выполнение SLA больше всего зависит от этого, а не от дата-центра или марки фидера.
не понял, как вы дата-центрах определяете свои каналы свзяи?
Как раз таки от качества дата-центра, т.е. инфраструктуры зависит очень многое.
Дата-центры бывают разные, и услуги у них можно брать разные. Если брать "все под ключ" - питание, охлаждение, внешнюю связность, локальную сеть, сетевое оборудование, серверы, сервисных инженеров - тогда, ясное дело, от ДЦ зависит очень многое.
У нас из всего этого в чужих датацентрах берется только питание и охлаждение, хотя даже бывает и UPS свои ставим. По опыту, из всех причин недоступности веб-сайтов, происходящих в зоне ответственности провайдера, на долю проблем с электроснабжением или охлаждением сервера приходится около 5-10%. Все остальное приходится на выход из строя оборудования, сбои в работе ПО, недостатки в организации системы, человеческий фактор и еще десятки других причин. Это та часть, которую мы контроллируем, вкладываем в нее свой опыт, исследования и разработки, и берем на себя за нее ответственность.
По поводу каналов связи в ДЦ - cеть у нас своя (AS48235). К ДЦ можно либо свою оптику дотянуть, либо соединиться по купленной или арендуемой чужой оптике.
Дотянуть оптику от узла до ДЦ, ввести её туда. В Москве это стоит очень дорого :)
А потом проложить свою СКС внутри, когда все смонтировано, хм... Не верю :)
Как вам будет угодно, я же не в "верю-не верю" с вами играю :)
В машинных залах СКС не нужна, у нее другое назначение. СКС в ДЦ может быть разве что в административной части здания и у охраны. А для коммутацию своего оборудования, размещенного в стойках, удобнее использовать собственные пассивные и активные компоненты.
не очень понял, что вы под скс понимаете...
Как вы например серверные стойки с коммутационными стойками соединяете?
не очень понял, что вы под скс понимаете...
Как вы например серверные стойки с коммутационными стойками соединяете?
кабеля между двумя стойками рвутся далеко не так часто, как падает сеть аплинка, питание или случаются проблемы с роутингом внутри сети ДЦ
а внутри своих стоек у truevds наверняка свои коммутаторы, кабеля и прочее
Не говорю что рвутся. просто cvss написал, что только питание и охлаждение берут в ДЦ.
Вот я и не понял, как они ставят свои стойки, прокладывают СКС, протягивают в ДЦ оптику и т.д. :)))
Звучит фантастически, во всяком случае для Москвы
На необходимость прокладывать СКС в ДЦ зачем-то вы настаиваете. Как я уже говорил, в этом необходимости нет (под СКС я понимаю классическое определение, см. например, википедию).
Vanger все правильно пишет. Соединение оборудования внутри стойки вообще никаким образом с СКС не связано, никакой сложности ни для кого не представляет. Кабели между стойками и в комнату связи тоже могут быть либо проложены своими монтажниками, либо заказаны у инженерной службы ДЦ - в зависимости от политики ДЦ в этом отношении или от целесообразности использования своих или чужих монтажников. Тоже никакой сложности.
Со своими стойками (имею в виду рамы для крепления 19" оборудования ) в чужих ДЦ - да, соглашусь что я выразился недостаточно ясно и меня можно было истолковать так, что и их мы привозим свои. Тут однозначно скажу, что нет, пока еще ни в одном постороннем ДЦ свои стойки (в смысле, рамы) мы не привозили, т.к. нас устраивают те стойки, который предоставляют ДЦ. Хотя и такой вариант не должен вас удивлять - если стандартное предложение заказчику не подходит, то многие ДЦ предлагают заказчику ставить его стойку. Главное, чтобы она соответствовала техническим требованиям размещения - по габаритам, весу и т.д. Например, в одном месте, рядом с нами стоит закрытый шкаф комстара, который они сами привезли, собрали, заполнили. Им понадобилось - ДЦ с удовольствием дает условия. Нам достаточно того, что есть - стоим в общей стойке.
Прокладывать оптику в ДЦ - если есть рядом своя точка присутствия и стоимость прокладки будет меньше стоимости аренды волокна или влана, разумеется, выгоднее проложить.
А почему все это для вас звучит фантастически?
До 17 июля TrueVDS проводит акцию "Сверхскидки на Сверхмощность!", в рамках которой для всех новых заказов VDS на тарифы от True7 до True9 к действующим скидкам применяется дополнительная скидка 25%.
Для данных тарифных планов стоимость составит:
- True7: 4 Gb RAM / 2x2.5 GHz CPU / 64 Gb RAID10 HDD - 1350 руб/мес при оплате за 1 год или 2700 руб/мес при ежемесячной оплате
- True8: 8 Gb RAM / 3x2.5 GHz CPU / 128 Gb RAID10 HDD - 2250 руб/мес при оплате за 1 год или 4500 руб/мес при ежемесячной оплате
- True9: 12 Gb RAM / 4x2.5 GHz CPU / 192 Gb RAID10 HDD - 2850 руб/мес при оплате за 1 год или 5700 руб/мес при ежемесячной оплате
VDS на Xen с гарантированными ресурсами без оверселлинга. Серверы в России, в Санкт-Петербурге.