- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Все что нужно знать о DDоS-атаках грамотному менеджеру
И как реагировать на "пожар", когда неизвестно, где хранятся "огнетушители
Антон Никонов
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Подскажите максимально быстрый способ упаковки доров в архив. Пробовал винрар в зип архив без сжатия, и пробовал 7зип в архив tar. Скорость печальная.
Писать файлы в RAM диск, и упаковывать там же, по идее должно быть шустро.
Писать файлы в RAM диск, и упаковывать там же, по идее должно быть шустро.
У меня 1 дор занимает 200-250 мб, пакетка минимум 100 доров
Где же взять столько оперативы?)
Это очень дорого
Я уже рассматривал этот вариант, ищу другой)
Купить SSD. Но лучше не заниматься средневековьем, а делать динамические доры на php + с базой mysql/sqlite.
Перейти на диски SSD. Использовать нормальный проц. Миллионы файлов упаковываются за пару часов от силы 7z.
---------- Добавлено 05.06.2017 в 15:15 ----------
Купить SSD. Но лучше не заниматься средневековьем, а делать динамические доры на php + с базой mysql/sqlite.
И сколько твои динамические доры держать будут обращений? 3,5 посетителя в минуту? :).
Накатал себе скрипт-шаблон на ZennoPoster 5. Я в PandoraBox генерю в RAM диск (хватит 1-2 ГБ), скрипт на лету готовые сайты архивирует, архив перемещает на HDD, папку с дором удаляет, так что можно генерить хоть 1000 в пакетке. Потом другой скрипт эти архивы по FTP заливает и по SSH делает распаковку на серваке.
Идею ты понял. Придумай реализацию. Или могу продам свои наработки, если есть зенка.
Я на ссд и пакую
Я на ссд и пакую
Возможно ssd плохой. В нормальном режиме 4-5 миллионов страниц упаковываются меньше часа. На стареньком проце 2014 года - Core i7-4790K . На древнючем Q9650, которому уже под 10 лет - пару-тройку часов.
Где то у тебя узкое место).
У меня 1 дор занимает 200-250 мб, пакетка минимум 100 доров
И что, это много? У меня доры пандорой делались по 700-1500мб, архивировались 2-5 мин, точно не помню. Ни каких ssd ни каких рем дисков. Обыкновенные блины по 7200 рпм.
Берёшь проц амдшный на vishera, гонишь до 4000 ГЦ, докидываешь туда, где-то 16ГБ оперативки. Профит. Дёшево и сердито! 😂
И что, это много? У меня доры пандорой делались по 700-1500мб, архивировались 2-5 мин, точно не помню. Ни каких ssd ни каких рем дисков. Обыкновенные блины по 7200 рпм.
Берёшь проц амдшный на vishera, гонишь до 4000 ГЦ, докидываешь туда, где-то 16ГБ оперативки. Профит. Дёшево и сердито! 😂
1 дор?
я же говорю у меня миллион страниц, сотни доров.
1 дор?
я же говорю у меня миллион страниц, сотни доров.
Предположим, ты генерируешь 50 страниц дора в секунду. (А в реальности скорее всего 10-20.)
И предположим "сотни" - это 200, по минимуму.
1 000 000 страниц * 200 доров = 200 000 000 страниц.
/ (50 страниц / в секунду) = 4 000 000 секунд
/ (3600 * 24) = 46 дней.
То есть ты два месяца генерировал эти сайты, а теперь не можешь дождаться неделю, пока они упакуются?
Так пакуй частями, все равно залить такой объем быстро нереально.
Даже если одна страница весит 1Кб (а в реальности намного больше),
то 20 000 000 страниц / 1024*2 = ~190Гб.
В заархивированном виде, например, 70Гб.
Проще написать скрипт, который сто раз будет генерировать, паковать в архивы по 700Мб и отправлять на сервер.