- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
А свитч же в транке стоит. Пусть помирает. Два линка с сервера выходит и в транковые свитчи (я это подсмотрел, когда в Comverse работал - там все так сделано). А так между ними два хопа - первый свитч, второй - парный сервер. Сейчас много криков начнется, что в случае пожара это все умрет и надо в соседние датацентры разносить :-D Предвосхищяя ликующие крики конкурентов сразу отвечу: не все датацентры горят. Есть и датацентры, где не отключают пожарку, если она дурит, а просто чинят ее )))) Hetzner еще ни разу не горел.
не люблю таких непотопляемых-неубиваемых суперхостеров. Не верю! (с)
Ну нафиг, я лучше на своём, старом, добром, с нормальным саппортом и серверами в Питере посижу.
А свитч же в транке стоит. Пусть помирает. Два линка с сервера выходит и в транковые свитчи (я это подсмотрел, когда в Comverse работал - там все так сделано). А так между ними два хопа - первый свитч, второй - парный сервер. Сейчас много криков начнется, что в случае пожара это все умрет и надо в соседние датацентры разносить :-D Предвосхищяя ликующие крики конкурентов сразу отвечу: не все датацентры горят. Есть и датацентры, где не отключают пожарку, если она дурит, а просто чинят ее )))) Hetzner еще ни разу не горел.
Не ну это паранойя, в случае пожара там хоть 20 свичей для резерва будет ничего не выживет, а горят таки все датацентры как ни странно..... только видимо каждый в свое время ;))))
Ну а что касается распределения я ж почему и спросил, ну допустим гореть там ничего не будет, возьмем по проще ситуацию, упал магистральный канал к примеру, есть альтернативы? куда включены? в какой AS находитесь? соседние AS ? сколько пирингов?
Romka_Kharkov добавил 19.07.2010 в 14:00
не люблю таких непотопляемых-неубиваемых суперхостеров. Не верю! (с)
Ну нафиг, я лучше на своём, старом, добром, с нормальным саппортом и серверами в Питере посижу.
Ну а вы что предполагаете, что технологии стоят на месте? уже есть скажем так прототипы, а в скором будущем найдутся магнаты которые перенесут все что у них есть на какую-то кластерную машинку из 10.000 серверов и на ней будут все ваши дедики, хостинги, и ВПС-ы вместе и все это будет сложно-потопляемо именно из за резервирования и повышения отказоустойчивости.
То, что может быть ТС о чем-то недоговаривает , это конечно его личное дело, но в принципе тенденция у него весьма правильная, так что не стоит плеваться, а иногда может быть просто надо попробовать!
Если магистраль упала, то есть порядка 10-ти магистралей еще. Хотя конечно как быстро OSPF обновится вопрос. Тормоза при этом будут жуткие.
Честно говоря конечно же это можно тоже назвать единой точкой отказа.
не люблю таких непотопляемых-неубиваемых суперхостеров. Не верю! (с)
Ну нафиг, я лучше на своём, старом, добром, с нормальным саппортом и серверами в Питере посижу.
И тоже верно! Старый друг лучше новых двух.
Ну а вы что предполагаете, что технологии стоят на месте? уже есть скажем так прототипы, а в скором будущем найдутся магнаты которые перенесут все что у них есть на какую-то кластерную машинку из 10.000 серверов и на ней будут все ваши дедики, хостинги, и ВПС-ы вместе и все это будет сложно-потопляемо именно из за резервирования и повышения отказоустойчивости.
Я так думаю, что мир хостинга жестко разделится на две сегмента: VPS и shared. VPS будет в стиле амазона, а раз у него неограниченные размеры, которые могут выходить за рамки физических машин, то дедиков вообще не будет. А вот шаред перейдет в другую сторону. Он будет строиться на блейдах и на платформах (панель+распеределенная ФС+web-ферма+реплика СУБД и так далее) которые будут позволять исключать из системы на горячую любой блейд и апргрейдить/чинить его.
Вот так вот смело предположил))
Только входной билет в мир хостинг будет куда как дороже, чем сегодня, что исключит появление кого попало. Автомобили тоже когда-то собирали в каждой американской деревне, а пойди сейчас попробуй поставь автомобильный завод...
Он будет строиться на блейдах и на платформах (панель+распеределенная ФС+web-ферма+реплика СУБД и так далее) которые будут позволять исключать из системы на горячую любой блейд и апргрейдить/чинить его.
Вот так вот смело предположил))
А почему "предположил" ??
Панель: В принципе любая + програмист
FS: lustreFS, glusterFS, zfs , уже как бы давно известны и пользуются
WEB: ферма из вебов это еще лет 5 назад пройденный этап, например железный балансировщик 4-7 layer, и как бы все, аналогично решается распределение запросов в SQL.
У нас на сегодня есть фермы более чем из 20 серверов.. которые надежно работают и заменяемы в любой момент, конечно это выглядит в виде все тех дедиков закрученных over ethernet и частично fiber . Сейчас работаю над синхронизацией cPanel.... вполне удачно можно сказать, есть конечно о чем еще подумать и доработать но тут прежде всего важна необходимость, а точнее потребность, многие сейчас думаю что вот cPanel ... как ее синхронизировать между 10ю серверами.... конфиги и все прочее, а на самом деле как показала практика панели достаточно только одной (на одном сервере) а остальные сервера реплицируют только сервисы, например httpd, а FS или распределенная или поверхностная синхронизация конфигов необходимых сервисов.
Сейчас больше заинтересовала возможность развести SELECT / INSERT по разным реплицируемым участкам кластера где есть SQL, я прекрасно понимаю как это сделать путем модификации исходного кода приложения которое будет работать с базой..... но не хотелось бы просить сотни клиентов переписать свои сайты ;))) А из промежуточных решений возникает только собственный драйвер который будет получать QUERY и разбираться (можно попробовать доработать существующий) что с ней сделать и куда отправить..... пробовал враперами простенькими - бред получился + некошерно с точки зрения нагрузки дополнительной ;)))
Я думаю что за этим будущее индустрии если честно!!!
Но разве такой навороенный кластер не поднял себестоимость до небес?
По поводу SQL: тогда могу посоветовать SQLrelay.
Но разве такой навороенный кластер не поднял себестоимость до небес?
Почему до небес.... У каждого свои потребности, для тех кто зарабатывает с сайта 100$ В месяц это "небеса", а кто-то платит 25.000$ за оборудование и зарабатывает при этом 100.000$ ...... Клиенты разные, я не сказал что етот кластер собран для раздачи шаред хостинга, это уникальное решение под заказчика.
По поводу SQL: тогда могу посоветовать SQLrelay.
Надо читануть, tnx...
У каждого свои потребности, для тех кто зарабатывает с сайта 100$ В месяц это "небеса", а кто-то платит 25.000$ за оборудование и зарабатывает при этом 100.000$ ...... Клиенты разные, я не сказал что етот кластер собран для раздачи шаред хостинга, это уникальное решение под заказчика.
Сорри, я просто рассуждаю категориями хостера в контексте хостинговых проблем. Тогда да, для состоятельных компаний конечно такие решения есть. Тут уж я не спорю.
Надо читануть, tnx...
mysql-lbpool
Continuent
Slony
SQLrelay
GreenSQL
Все эти продукты так или иначе можно под эту нужну переделать.
Я думаю что за этим будущее индустрии если честно!!!
Будущее индустрии - это не кластеры из кучи серверов, это майнфреймы. Разве это не очевидно?
А вот тут бы я поспорил! Это еще почему?
Могу привести пример. Все наверно обращали внимание, что если звонить с Мегафоновского номера, то зуммер начинается на несколько секунд позже, чем у Билайна и МТС.
Вопрос: почему?
А вот как раз в Мегафоне стоят огромные махины HP Superdom 1200/2400 с 128 процессорами на борту и оперативкой, которая меряется как размеры винтов, а у конкурентов - мелочь всякая. SGU (куда приходит звонок с вышки) и SLU (который его обрабатывает) - Мелкие блейды. Точнее даже не блейды, а откровенная армия помоек. Но производительность - в десятки раз выше, отказоустойчивость - в сотни.
По рассказам моего коллеги из этого же хостинга они нашли баг у Супердома, что он кладется одним пингом... Вот представь, что на мейнфрейме хостится 2-3 миллиона сайтов. И представь, что разработчики опять там накосячили, а системный администратор случайно попал в эту точку... Это будет хабраэффект в тикетке и куча самоуволившихся сотрудников.