второй сервер для картинок.. как я уже говорил, лет 10 назад такая схема самая популярная была, потому шо тогда не было такой штуки как nginx и статику эффективней было отделять от скриптов и баз данных физически.. т.е. перенеся ее на другой сервак... сейчас эта тема неактуальна вообще.. есть и легенькие веб-сервера типа того же nginx, да и сам апач нынче гораздо более производительный и гибкий чем раньше... То что Лента.ру до сих пор живет на том, на чем живет - это всего лишь наследие прошлого (о чем косвенно говорит и версия фряхи) и не более того.. если б под ней захотели поменять железки, то она бы запросто уместилась и на одном средненьком по мощности сервере собранном из более-менее современного железа..
я кстати знаю, откуда взялись мифы про то, что 1000 посетителей в сутки - это уже много, а 50 тыщ посетителей - это супермного и на каждый такой проект по серверу надо, иначе все тормозить будет и дохнуть.. Это ж любимый аргумент хостеров при перекидывании своих клиентов на более дорогие тарифы, затем на vip, а затем и на аренду.. Сам всю эту цепочку проходил в свое время.. пока не оказалось, что все мои проекты под которые настойчиво сували дедик долгое время, на самом деле все вместе жрут сотые доли процента ресурса нормального сервака..
насчет ниодного реального совета - это потому что ТС не дал никаких конкретных данных... тут только общее можно посоветовать, оно же прописные истины:
1. серверная платформа
2. соверменный четырехядерный xeon в кол-ве 1 штука (больше не надо... для веба прирост производительнности на 6, 8 и более ядрах будет мизерным - проверял)..
3. настолько много оперативки, насколько это позволит кошелек
4. дисковая подсистема с настоящим хардовым райдконтроллером и SAS винтами в быстром но надежном райде типа 10.
5. производительная (рекомендуется 64 битная) система типа последней фряхи (семёрка вышла пару недель назад - шикарная штука между прочим)
6. актуальные версии другого веб-ориентированного ПО с соответствующими модулями и библиотеками типа мемкэшда
7. прямые руки у сисадмина, который бы все вышеперечисленные пункты настроил для работы ..
_Ad добавил 14.03.2008 в 00:59
да.. 1997 год.. эх, вот были времена то. Но с посещаемостью все было нормально. просто интересы у публики были несколько иные..
Угадайте, с чьего сайта нарезались первые CD-диски с рефератами? 😎
кстати, мой пример про форум одной игрушки - как раз из тех времен.. ну может быть годика на два-три позже..
это вполне реально. Как вы думаете, на чем раньше (лет 10-15 назад) жили крупные проекты?
из личного опыта: когда то давно был форум онлайн игрушки одной достаточно популярной.. миллион хитов в сутки имел.. Никакой статики не было, потому шо форум.. Так вот, он жил на двух серверах пентиум 2.. один картинки отдавал, а второй скриптами занимался...
1000 юзеров онлайн - это не такая уж и проблема для современного качественного железа... тем более если это будет микрокластер (из двух машин)...
ну а так, 1000 юзеров одновременно вам любой сервер шаред-хостинга выдаст, на котором под сотню-другую аккаунтов заведено
ЗЫ. Топикстартеру могу помочь с консультациями по выбору железок в личке.
ЗЗЫ. А вообще такая тема уже поднималась не так давно, там все запчасти расжевывались на предмет их функционала
ну вот я и хочу посмотреть.. вот в частности на теги типа <p id=949075> или <br id=09374> которые и в оформлении и в контенте встречаются, яндексу пофиг асболютно будет.. а вот парсилка не осилит узнать где нужный кусок.. Логика такая примерно... но я не знаком с парсилками, поэтому интересуюсь как они работают
Вот у меня тоже возникла мысль динамически генерить имена стилей и наборы тегов ... тексту пофиг, а парсилки не осилят отковырять текст от дизайна в таком случае...
поэтому я и спрашиваю, как работают парсилки.. потому что возможно решение проблемы заимствования контента на поверхности лежит.
И как раз таки проще написать генератор тегов... оно ж само потом будет работать без всяких усилий с вашей стороны..
никто не хочет попробовать антипарсер соорудить? Или давайте я сделаю, мне только нужно описание работы парсера... в яндексе не нашел, а сам никогда таким не занимался.
А как нынче работают парсилки контента? Хочется защитить контент сайта (15 000 страниц).
Я правильно понимаю, что он выдирает контент заключенный между определенными тегами? Хотелось бы поподробней
верстка макета под печать? ну посадите верстальщика работать и засеките время... получите какое то время, от которого уже можно отталкиваться планируя месяц..
а может и не будет.. Не помню как называется логический закон, но звучит он примерно так - чем больше элементов в агрегате, тем вероятней что что-нибудь да выйдет из строя...
я в этом убедился... когда железяки 5-8 летней давности мне ребилд почти на сутки устроили после аварии... тормозило ужасно... хорошо хоть больше ничего не сгорело в это время... А новые железки справились бы с этим за 10 минут.
вот и получается, что один бэкенд не отдает ответ БД, а вся система не работает.. Ну их нафиг, эти дешевые бэкенды..
арендовать выгодно только дешевые и очень дешевые железяки....
под какую нибудь мощную БД или общественный сервис типа социалки или партнерки такой вариант не сработает...
супермикровский сервер с четырехядерным ксеоном 5420, восемью гигами оперативки, хардовым райдом и массивом из 4 SAS арендовать получится только по ценам от 20 тысяч рублей в месяц... при том, что сам сервер стоит 140 тыщ в такой конфигурации... Естественно, экономней гораздо купить его себе и потом просто за 2 - 3 тыщи поставить на колокэйшн... он меньше чем за год себя окупит..
ну да, не имеет.. это они (разработчики Вордпресса) так думать хотят.. А на деле все достаточно кривовато организованно.
В идеале нужно поставить новую версию ВП, потом накрутить туда плагинов до нужной вам функциональности.. проверить на работоспособность и больше код не ковырять... во избежание, так сказать..
это что ж за видяха такая, которая тянет сталкер на 22х широких дюймах?