- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос следующий: Есть ли ограничение на общее количество файлов в одной папке при работе с unix-системами?
Т.е. я хочу на хостинге в одной папке размещать файлы превьюшек. Исходных фотографий - где то порядка 40 тыс. (фотобанк). Фотка может иметь до 3х превьюшек. Получится ли все превьюшки складывать в одну папку (т.е. 100-120 тыс. файлов влезут в одну папку или нет)?
Получится ли все превьюшки складывать в одну папку (т.е. 100-120 тыс. файлов влезут в одну папку или нет)?
А зачем создавать геморой себе и серверу. Ведь чем больше файлов в папке, тем медленнее доступ к ней...
Что мешает разделить файлы на подкаталоги, в качестве критерия деления использовать , допустим, первый символ имени. Получаем 10 или 36 вложенных папок. Соответсвенно во столько же раз меньше файлов в каждой
ну вот я и склоняюсь к такому методу... инет перерыл - ничего по данному вопросу внятного не нашел
Если память не изменяет, то 32767, но уже после 20000 может существенно притормаживать при доступе. Лучше сделайте вложенную структуру директорий.
Неоднозначно.
Зависит от файловой системы и настроек директив всяких.
Стало интересно и нашел на перле - можно запытать
скрипт создающий файлы
http://forum.ru-board.com/topic.cgi?forum=65&topic=2987&start=16&limit=1&m=1#1
скрипт открывающий файлы
http://forum.ru-board.com/topic.cgi?forum=65&topic=2987&start=16&limit=1&m=2#1
выводится скорость доступа. в зависимости от уровня вложенности, кол-ва файлов и т.д.
вот тут графики есть http://forum.ru-board.com/topic.cgi?forum=65&active=15&topic=2987
как-то в целях отладки плавающего глюка системы (linux) на коленке за 5 минут набросал логгер, который раз в минуту создавал в папке 3 файла - скрины top'a, mytop'а и server-status'а. Так вот на следующий день я не смог удалить папку:) Что-то там про нехватку памяти для доступа было. Пришлось чистить ее небольшими порциями по маске имени.
т.е. вместо 1 папки с 100 тыс. файлами можно сделать 1 папку, внутри нее создать еще 1000 (например) папок и размещать файлы уже в ней. грубо говоря - делим 100К файлов на 1000 папок = по 100 файлов на папку.
такая структура будет премного лучше размещения всех файлов в 1 папке?
такая структура будет премного лучше размещения всех файлов в 1 папке?
безусловно. Есть еще одно маленькое но... имена папок и файлов, желательно, иметь с минимальной длинной
У меня как то битрикс в NTFS насоздовал в одной папке боле 25.000.000 (25 миллионов файлов) и не удалял старый кеш. Я заметил только тогда, когда места на диске почти не осталось.
Самое смешное сайт не тормозил совсем, однако удалить эти файлы оказалось совсем не просто (а зайти в директорию просто не возможно). В сумме удаление простым del *.* заняло 2 недели. Проще было диск отформатировать :)