- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Тренды маркетинга в 2024 году: мобильные продажи, углубленная аналитика и ИИ
Экспертная оценка Адмитад
Оксана Мамчуева

В 2023 году Одноклассники пресекли более 9 млн подозрительных входов в учетные записи
И выявили более 7 млн подозрительных пользователей
Оксана Мамчуева
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Привет, подскажите, пожалуйста.
php file выполняю считывание файла 70Мб.
Понятно лезет ошибка. А как с ней бороться?
Мне надо считать файл в массив и проверить строки на уникальность оставив только уникальные по первому разделителю.
Ну т.е. строка условно "текст1":" текст2 ":" текст3 ":" текст4 "
и вот мне надо уник по текст1 оставить.
ps а разбить файл на меньшие я же не могу, тогда проблема оставить только уник по всему файлу.
php file выполняю считывание файла 70Мб.
Понятно лезет ошибка. А как с ней бороться?
Самый простой вариант - выставить большее количество памяти для php-процесса. Способ где это прописывать зависит от того, в каком виде у вас работает php.
php file выполняю считывание файла 70Мб.
Понятно лезет ошибка. А как с ней бороться?
Ошибка на считывании или уже при разбиении?
В php.ini меняй memory_limit на большее значение
На пример так
memory_limit=512M
Привет, подскажите, пожалуйста.
php file выполняю считывание файла 70Мб.
Понятно лезет ошибка. А как с ней бороться?
В начале скрипта или еще больше, если ошибка не пропадает и хостинг позволяет
В начале скрипта или еще больше, если ошибка не пропадает и хостинг позволяет
У ТС-а уже 256М выделено.
Мне надо считать файл в массив и проверить строки на уникальность оставив только уникальные по первому разделителю.
Это очень ресурсоёмкие задачи, поэтому попробуйте выделить 512М если позволяет хостинг на выполнение PHP
Но также надо смотреть код, может быть там какая-нибудь сортировка вставлена которая будет пожирать ресурсы.
Самый простой вариант - выставить большее количество памяти для php-процесса. Способ где это прописывать зависит от того, в каком виде у вас работает php.
Ошибка на считывании или уже при разбиении?
Ну я не разбиваю. Только пытаюсь прочитать файл целиком.
У ТС-а уже 256М выделено.
Это очень ресурсоёмкие задачи, поэтому попробуйте выделить 512М если позволяет хостинг на выполнение PHP
Но также надо смотреть код, может быть там какая-нибудь сортировка вставлена которая будет пожирать ресурсы.
В файле iqcbhqelxh.csv 3700000 строк.
Каждая строка имеет условно такой вид
"alibaba":true:true:false:"2020-11-30 12:27:49":2819:portugal
ошибка вываливается в строке где $file1 = file($fajl1);
ругается на ресурсы
В начале скрипта или еще больше, если ошибка не пропадает и хостинг позволяет
1р 1Мб, 1р 1сек. Увеличить то могу, за денежку, но я же не знаю на сколько нужно))
Сейчас пробую залить этот файл в базу Mysql, ругается что файл большой, ну может в 5 итераций закину...
Делите файл или действительно через mysql пробуйте как-нибудь.
Вообще на локалке это провернуть бы, да и всё.
php file выполняю считывание файла 70Мб.
Читайте через fgets():
https://www.php.net/manual/ru/function.fgets.php
Делите файл или действительно через mysql пробуйте как-нибудь.
Вообще на локалке это провернуть бы, да и всё.
Разделив файл я не понимаю, как можно оставить уник для всего файла. Уник то можно будет оставить только для "кусков". Конечно можно их потом объеденить и ещё раз уникализировать....
А как на локалке, чем?
База ругается. Началось неплохо. По 500-700 тыс строк добавлялось. Сейчас уже 7я итерация. Ставлю пропустить sql запросов 2470042 и добавляет в базу всего 100 тыс срок...