- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Как удалить плохие SEO-ссылки и очистить ссылочную массу сайта
Применяем отклонение ссылок
Сервис Rookee
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Пишу на php движок файлового архива с возможностью загрузки больших файлов (до 100 метров). Возник вопрос - как лучше организовать процесс загрузки файлов, чтобы создавать меньшую нагрузку на сервер? Кто делал (или видел исходники) что-нибудь подобное, поделитесь поытом.
видил скрипт, назывался вроде server-to-server или что то типа sst. Посмотри как там реализован этот механизм ;)
Kpd,
Если загрузка от юзеров на сайт с их компьютеров, то тут без вариантов - move_uploaded_file и все. У нас файлы до 200Мб проходили.
Другой вариант это давать ftp доступ юзерам на аплоад, а скриптом сканировать папку ( readdir) на предмет новых файлов и добавлять их в базу. Опционально перемещать (rename) в другую папку.
Если гонять между серверами или скачивать с источников, то php rapidget надо смотреть утилитку. Там много реализовано вариантов.
Если хотите сами сделать закачку по ftp/http с других серверов на php, то curl либа.
Если есть доступ к шелл командам, то для закачки можно использовать system("wget... например и аналоги.
Если загрузка от юзеров на сайт с их компьютеров, то тут без вариантов - move_uploaded_file и все. У нас файлы до 200Мб проходили.
Только нужно не забывать, что php должен быть настроен на приём больших файлов.
Только нужно не забывать, что php должен быть настроен на приём больших файлов.
А что там нужно настраивать именно в php для приема больших файлов?
Мы только upload_max_filesize да post_max_size выставляем в php.ini или .htaccess и все, никаких настроек. Но этот при любом аплоаде надо контроллировать, ибо есть такие экзотные хостеры, у которых по 200Кб лимиты стоят:)
upload_max_filesize да post_max_size
Я бы этом и говорил, просто стандартные 2-8 метров может не хватить :)
Я бы этом и говорил, просто стандартные 2-8 метров может не хватить
А как быть с временем выполнения скрипта?
Альтернативные варианты
Flash, из него аплоадить любым удобным способом.
Web Publishing Wizard
А как быть с временем выполнения скрипта?
set_time_limit
Правда, проблема кроется в количестве одновременно открытых коннектов/процессов аплоада.
Flash, из него аплоадить любым удобным способом.
Не понял, это как?
set_time_limit
Правда, проблема кроется в количестве одновременно открытых коннектов/процессов аплоада.
Про эту возможность я знаю, вопрос именно в нагрузке. Если юзер будет грузить 100 метровый архив с низкой скоростью (эдак, час-полтора), то все это время один процесс Апача будет занят этим юзером. Что будет при большом количестве юзеров страшно представить. А надо как-то решить проблему. Собственно, для этого и создал тему.