- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Доброго времени суток. Помогите пожалуйста решить такую проблемку: в цикле использую функцию str_replace(), что занимает довольно много времени на обработку :(
Можно ли как-то ускорить данный процесс?
Нашёл статью по php5-fss, действительно возможно ускорить str_replace с помощью данного расширения? Кто-нибудь пробовал? Искал dll для Denwer, не смог найти, подскажите где бы его раздобыть?
Вот примерно такой код нужно ускорить:
А вы замеряли, что у вас именно str_replace() тормозит?
При таких объемах текста у вас скорее на запись на диск основное время тратиться должно.
Я тоже думаю, что задача в корне неверно сформулирована, сследует озадачится записью файла, а не заменой строк - это же очевидно
Спасибо вам, сейчас закомментировал все str_replace, посмотрел, и действительно всё время уходит на запись :( str_replace занимает всего доли секунд.
Может подскажите возможно ли ускорить процесс записи в файл? Может есть какие расширения для этого? Или может с FAT32 PHP намного быстрее работает? Я уже и eAccelerator и Zend ставил, не помогает.
Спасибо вам, сейчас закомментировал все str_replace, посмотрел, и действительно всё время уходит на запись :( str_replace занимает всего доли секунд.
Может подскажите возможно ли ускорить процесс записи в файл? Может есть какие расширения для этого? Или может с FAT32 PHP намного быстрее работает? Я уже и eAccelerator и Zend ставил, не помогает.
Если скорость записи так критична, то смотрите в сторону SSD.
Смена ФС навряд ли сильный прирост даст. Не говоря уже о модулях.
Вооооот. Они прежде чем предпринять действия это время замеряли. А ты ?
Если это все сделано ради генерации текстов, попробуй ramdrive настроить у себя и обрабатывать тексты крупными порциями на этом диске.
Хранить данные на физическом файле - принципиально? Почему бы не сделать обработку запроса пхп скриптом и выборку из бд?
Предлагаю просто распаралеллить запись и всё.
Пусть будет 10 ботов и писать по 100 записей, $i можно им по GET передавать.
Сколько файлов в папке куда идет запись? Если более 1000 то настоятельно рекомендуется разбить на подпапки с меньшим колвом файлов. Увеличить кеш файловой системы. Но скорее всего проблема в плохих алгоритмах - а это требуетпересмотр концепций и советов там никто не даст
Если скорость записи так критична, то смотрите в сторону SSD.
Почитал по ним, прирост совсем не существенный для такого заморачивания :( Но расширил кругозор, спасибо :)
Вооооот. Они прежде чем предпринять действия это время замеряли. А ты ?
Ага, ошибся, хорошо люди умные поправили, а то я уже php5-fss смотрел, а оно и не помогло бы даже :(
Если это все сделано ради генерации текстов, попробуй ramdrive настроить у себя и обрабатывать тексты крупными порциями на этом диске.
То, что обрабатывается подхватывается 1 раз, т.е. в скрипте в основном запись на диск идёт, спасибо почитаю подробнее по ramdrive
Хранить данные на физическом файле - принципиально? Почему бы не сделать обработку запроса пхп скриптом и выборку из бд?
спасибо, о такой возможности знаю, но нужно именно создание файлов :(
Предлагаю просто распаралеллить запись и всё.
Пусть будет 10 ботов и писать по 100 записей, $i можно им по GET передавать.
спасибо, вот это интересно, даже и не подумал об этом, впринципе можно разделить скрипт на несколько и запустить сразу все, но попробую такую реализацию, спасибо за идею. Может где пример такой реализации можно глянуть? Т.е. получается можно написать 10 таких функций и скрипт будет продолжать работать записывая данные в фоновом режиме?
Сколько файлов в папке куда идет запись? Если более 1000 то настоятельно рекомендуется разбить на подпапки с меньшим колвом файлов. Увеличить кеш файловой системы. Но скорее всего проблема в плохих алгоритмах - а это требуетпересмотр концепций и советов там никто не даст
Спасибо, деление как раз так и продумано что по завершению работы скрипта в каждой папке не более 1000 файлов
Почитал по ним, прирост совсем не существенный для такого заморачивания :( Но расширил кругозор, спасибо :)
Пожалуйста :)
Прирост скорости в несколько раз должен быть. Или вам больше нужно?