- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день. Хотел задать следующий вопрос (нубский, наверно, но все же).
Допустим, у нас есть 1ый сервер, на котором лежит site1.ru, сделаный на чистом html+css, никаких БД и т.п. Сайт состоит из 100 страниц, на которые ежедневно заходят 100 уников, которые создают какую-то нагрузку.
И, допустим, у нас есть 2ой сервер, на котором лежит site2.ru, состоящий из 100 000 страниц, на которые также заходят 100 уников, которые также создают какую-то нагрузку.
Вопрос: нагрузка на оба сервера будет идентична?
Т.е. другими словами, когда мы делаем сайт, например, на wp или joomla, то при увеличении mysql нагрузка на сервер возрастает, даже если трафик остается тем же. Каждый запрос к серверу требует больше ресурсов. Если же сайты – это просто статичные html страницы без баз данных, скриптов или инклудов – то, получается, подобных проблем нет? Можно выложить хоть миллион страниц – не будет большого трафика, не будет и большой нагрузки? Или есть нюансы?
Очень сферично, хоть вы и пытались числами оперировать.
И, допустим, у нас есть 2ой сервер, на котором лежит site2.ru, состоящий из 100 000 страниц, на которые также заходят 100 уников, которые также создают какую-то нагрузку.
Если все 100 000 файлов хранятся в одной папке, то нагрузка на диски будет разная.
если чистый html+css при 100 посетителях, то нагрузка site1.ru=site2.ru
Можно выложить хоть миллион страниц – не будет большого трафика, не будет и большой нагрузки? Или есть нюансы?
Одно чтение статического файла с диска при хоть насколько нибудь оптимальной структуре директорий займет до 10 операций случайного доступа к диску. Это очень медленно, так как одна операция у жестких дисков занимает 7-10 мс. Поэтому файловые системы кэшируют данные в памяти. Если на сайте всего 100 разных страниц и на сервере мало сайтов настолько, что закэшированные данные не вытесняются быстрее, чем приходят новые запросы и поднимают их наверх, то нагрузки на диск не будет. Все будет отдаваться из памяти.
А если файлов будет миллион и запросы будут каждый раз к разным файлам, то на каждый запрос надо будет обращаться к диску. На больших количествах файлов нужно либо очень четко представлять, что сколько грузит и когда что есть в кэшах, а когда вытесняется оттуда, либо вообще не расчитывать на кэши.
100 юников плохая мерка, если ваш сайт с миллионом страниц смотрит в интернет, то на него будут ходить боты, и будут посещать страницы, которые точно не в кэшах и грузить диск.