- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году 36,9% всех DDoS-атак пришлось на сферу финансов
А 24,9% – на сегмент электронной коммерции
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Как устроены PHP сайты вообще не важно. На сильнонагруженных сайтах проблема в базах данных и кэшировании, судя по всем схемам какие я видел.
Кэш, несколько среверов, балансировщик, обработка не каждой части инфы в режиме реального времени, а пакета инфы через определённое время.
Много текста, и каждая строка - неверна :)
Что, основные задержки из-за интерпретируемости пхп? Или MySQL настолько плох? Или разговор про умников, которые не знают, что "нужно строить индексы в базах данных"? 😂
Ну, и "простой сайт на пхп" + "500 пользователей онлайн" - убило :)
Это по вашему субъективному мнению неверно. Я разработчик, мой друг разработчик сильнонагруженных приложений для сайтов.
И ДА! Основные задержки именно из-за интерпретируемости ПХП. И МайСКЛ. На тестах он валиться, вы пробовали тестировать?
Ну и "простой сайт на пхп" в среднем тратит 0.02-0.05 на генерацию страницы, чего как раз хватает на 500 онлайн пользователей. Если сайт вроде газеты, тогда хватит и на 1000. (речь идет про простой компьютер-дедик).
Я написал, основываясь на реальных данных реальных сайтов, а Вы несете бред сивой кобылы. Простите, но если вы такие умные, почему не даете нормальных детальных ответов?
Троллятиной попахиваете.
Это по вашему субъективному мнению неверно. Я разработчик, мой друг разработчик сильнонагруженных приложений для сайтов.
И ДА! Основные задержки именно из-за интерпретируемости ПХП. И МайСКЛ. На тестах он валиться, вы пробовали тестировать?
Ну и "простой сайт на пхп" в среднем тратит 0.02-0.05 на генерацию страницы, чего как раз хватает на 500 онлайн пользователей. Если сайт вроде газеты, тогда хватит и на 1000. (речь идет про простой компьютер-дедик).
Я написал, основываясь на реальных данных реальных сайтов, а Вы несете бред сивой кобылы. Простите, но если вы такие умные, почему не даете нормальных детальных ответов?
Троллятиной попахиваете.
Для высоконагруженных приложений "простой компьютер-дедик" никто не применяет. Применяют самые последние технические навинки, такие как 4-х процесорный ксенон по 4 ядра в каждом и 16 гигов рама. Только нагрузки там проектировочные под 5000 в секунду,а не в минуту..
Только всё сильно зависит от приложения, простой сайт на пхп или газета высоконагруженая вообще не должна в базу лазать при клиентском запросе.
И ДА! Основные задержки именно из-за интерпретируемости ПХП. И МайСКЛ. На тестах он валиться, вы пробовали тестировать?
Всё зависит от кривизны архитектуры и запросов. Имецца сайтег, 32000 одновременных TCP соединений, 2 соединения с мускулом, полёт нормальный - перезагрузка раз в 3 месяца. Железо - дедик, вся база разумеется влазит в оперативку, на винте (рейд зеркало) только запись.
Это по вашему субъективному мнению неверно. Я разработчик, мой друг разработчик сильнонагруженных приложений для сайтов.
О! Таки и я разработчик. Точнее, даже ведущий разработчик. Если совсем точно - руководитель проекта ;) Хотите, померяемся крутизной? 😂 🍻
Круто. Значит, вся проблема именно в пхп, да? 😆
У меня MySQL на тестах не валится. Может я не те запросы гоняю? Может надо не простой SELECT 1, а что-то типа 20 джоинов из разных таблиц да еще и без индексов? 😂
Блин, и что для вас "простой сайт на пхп"? Тут как бы количество вариантов огромно...
Троллятиной попахиваете.
Ну что вы, разве мои 11 лет опыта могут сравнится с вашими "данными реальных сайтов"? ;)
Ответы детальные уже дали. Без привязки к конкретным языкам. Грамотная архитектура, кеширование, подготовка данных заранее, балансировка между разными серверами если понадобится (кластер), работа с данными в памяти, а не на диске.
Ну и "простой сайт на пхп" в среднем тратит 0.02-0.05 на генерацию страницы, чего как раз хватает на 500 онлайн пользователей. Если сайт вроде газеты, тогда хватит и на 1000. (речь идет про простой компьютер-дедик).
если на запрос тратится 20 мсек - то в секунду будет всего 50 страниц, а не 500 ;)
Еще есть связка MSSQL+C (C++/C#) - тоже с тяжелыми задачами справляется хорошо. Работал с этим - тянуло обработку платежей моб.операторов, услуг от множества сетей плат.терминалов в реальном времени, с отчетами, статистикой, анализом через веб-сервисы.
скажите, если из mysql данные кэшировать таким способом:
1. мюскул запрос
2. сохранение файла мд5(запрос);
3. проверка при вызове этого запроса, если тру то выводить данные из файла "мд5(запрос)"
скажите на сколько такая система кэширования мюскула удобна, нагрузку на мускул снижает но что будет например при тех же 500 запросах в сеукнду? может как то по другому кэш хранить?
elfff,
http://habrahabr.ru/blogs/webdev/42607/ почитайте. (не я писал) или просто по memcached поищите.