- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Любопытен такой вопрос, можно сказать задача:
1.Файловая система ext3. В одной папке лежат 100`000 файлов (картинки, каждая до 25 килобайт).
2.При открытии любой страницы сайта загружаются любые 10 штук картинок из этой папки.
3.Страницы сайта открывают одновременно 100 человек.
Как повлияет такое количество файлов в одной папке и режим такой работы на сервер? Что такое эффективность кеширования файловой системы? Что будет с жестким диском, будет ли повышенный износ? Что произойдет, если количество файлов будет 500`000? 1`000`000?
Буду рад для самообразования получить не только ваши ответы, но и ссылки на литературу.
В таких случаях стараются разбивать файлы по поддиректориям.
Это облегчит работу файловой системы. На износ никак не повлияет, но скорость открытия файлов увеличится.
Попробйуте произвести замер времени, сколько времени у вас уходит на открытие/закрытие одного файла.
Если ко всем файлам обращения происходят с примерно одинаковой частотой, то кэширование вам никак не поможет.
180К файлов в одной папке
Посещалка 5000 людей
ииии... ничего :) Вы же не листаете эти файлы в папке и не запрашивайте пачкой у них данные, а точечно запрашиваете конкретные файлы. Поэтому ничего не будет.
Для этого придумали дисковый кеш
[umka], попробовал определить время при открытии/закрытии одного файла. Скорость действительно увеличивается. Но склоняюсь к тому, это происходит из-за того, что программа, с помощью которой я открываю картинки, читает заголовки всех файлов и определяет их параметры (размер, разрешение).
LEOnidUKG, да, именно такой способ работы я и подразумевал.
180К файлов в одной папке
Посещалка 5000 людей ииии... ничего :)
Речь про ext3?
Когда много файлов, чтобы точечно произвести запрос, fat винта всё равно будет дольше оращаться к файлу, и чем больше файлов будет, тем медленне сам комп будет работать. С твердотельными винтами проще, хотя тоже требуется время на поиск нужного файла. Проверьте сами - имейте на компе тысячи файлов и убедитесь, как комп будет в целом тормозить. У меня много мелких файлов, исторически так сложилось и всё тормозит. Когда ставлю на новый комп систему где ничего нет всё летает. Поэтому чтобы облегчить запросы винта, при любой возможности не нужно держать много файлов в одной папке.
Речь про ext3?
Ну на CentOs стандартно, поэтому она.
У меня в папке было под 500к файлов. все нормально только ftp глючил :)
если идут прямые обращения к конкретному файлу - то ничего страшного.
Если делать листинг директории - то конечно да, тормоза будут жуткие...
зачем так извращаться нужно изначально делать правильную архитектуру.