- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

В 2023 году Google заблокировал более 170 млн фальшивых отзывов на Картах
Это на 45% больше, чем в 2022 году
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Необходимо расположить на сервере(на нескольких дисках) около полумиллиона файлов (вес разнится от 1 до 100 мб.).
Быть может есть какие нибудь рекоммендации для оптимального хранения этих файлов (по какому то кол-ву на каталог, быть может вложенные каталоги и прочее). Понятное дело, что в пару каталогов всё это не сбросишь -вот в общем интересует, как бы всё это расположить в лучшем виде.
предполагаемая операционка - centos
Говорят, что в одной папке можно хранить сколько угодно файлов.
Я не проверял.
Но если файлов в папке слишком много, то просматривать папку администратору будет очень долго и не удобно. А это иногда приходится делать.
Поэтому я храню все файлы в паках.
В каждой папке не более 1000 файлов.
Сами папки имеют названия в виде номеров.
1
2
3
…
444
потёр сории
Какую FS планируете использовать ?
У Вас объем данных получается от 500 - 50.000 Gb.
Объем реальный известен ? Бэкапить это планируете как-то ?
пока что никакую, но если исходя из операционки (centos) какая-то файловая система будет давать значительные плюсы, то можно использовать её.
примерно 6тб на 4 дисках
копия всего архива будет располагаться ещё на одном таком же сервере. Особого ежедневного прироста в кол-ве файлов не ожидается, то есть дополняться будет, но не особо часто.
Попробуй gluster
alex545, а какие Ваши предложение? эти файлы должны будут отдаваться одиним куском? какая посещаемость?
проблема в том что очень много маленьких файлов и в том что на одном сервере все это... сколько файлов размера 1-20метр?
6000000/100=60000 файлов
6000000/1= 6000000 файлов
в одном проекте где было 10млн файлов и даже только у некоторых пользователей по 4Тб :)
когда пользователь хотел скачать через httpd, то переходил на страницу http://super-site.ru/file/we32swrs3/porn.avi , скрипт принимал название, смотрел в бд есть ли этот файл и его ид, после кнопки скачать, скрипт отправлял в nginx через внутрений редирект данные (время жизни ссылки и т.д.) и пользовтаь получал эту ссылку через которую можно было скачать файл...
файлы дедились по каталогам, именно так, по 1000 файлов...
узнать какой файл в каком каталоге должен быть и в каком он есть, можно было так:
$f->{new_id_file} - id файла
$c->{files_per_folder} - число файлов в каталоге
название каталога:
Не корректнее ли будет запастись большим количеством RAM и вывалить это дело на NAS?
А если NAS упадет - все сдохнет
Уж лучше gluster
Ну так рейд и бекап? Не, если в финансы упирается тады я молчу.
А если сгорит (физически)? Это надо резерв, на него восстановление. Даунтайм.
Gluster лучше. Если правильно приготовить.