- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу

Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Добрый день.
Есть пример кода парсинга больших csv файлов? Файл примерно 200-300 мб.
Суть еще в том, что на одну строку большое кол-во запросов mySQL, обработка долгой получается и выдает ошибку 504. Возможно считывать построчно? Если возможно, то как? Желательно с примером:)
можно порезать на мелкие файлы например http://stackoverflow.com/questions/5391304/split-big-files-using-php
а обязательно ли парсить исходный csv с помощью пхп?
как на счет подключиться к мускулю через консоль и загрузить все напрямую в таблицу? через
load data local infile "путь/к/файлу" into table db.table fields terminated by ';' lines terminated by '\n' (pole1, pole2, pole3, pole4, pole5);
тоже самое из скрипта пхп:
mysql_query('load data local infile "путь/к/файлу" into table db.table fields terminated by \';\' lines terminated by \'\n\' (pole1, pole2, pole3, pole4, pole5)');
как вариант
можно еще весь csv вкинуть в мускул и потом через цикл в пхп тянуть что нужно. пример
А еще можно парсить консольным скриптом и поставить ему неограниченную настройку времени выполнения - это чтобы 504 ошибки веб-сервера не было, т.е. исключить веб-сервер из процесса.
а обязательно ли парсить исходный csv с помощью пхп?
как на счет подключиться к мускулю через консоль и загрузить все напрямую в таблицу? через
load data local infile "путь/к/файлу" into table db.table fields terminated by ';' lines terminated by '\n' (pole1, pole2, pole3, pole4, pole5);
тоже самое из скрипта пхп:
mysql_query('load data local infile "путь/к/файлу" into table db.table fields terminated by \';\' lines terminated by \'\n\' (pole1, pole2, pole3, pole4, pole5)');
как вариант
Если одна строка будет
1;2;3;4;5;6
А другая
1;2;3
?
Зальет в mysql?
только что провел тест)
тестовый файл
тестовый скрипт (доступен из веб)
результат
только что провел тест)
тестовый файл
тестовый скрипт (доступен из веб)
результат
Спасибо большое) Очень помогли)
Всегда построчно CSV читал, проблем с большими файлами не было.
Пример есть: http://www.php.net/manual/en/function.fgets.php или http://www.php.net/manual/en/function.fgetcsv.php
fgetcsv - читает построчно и разбирает csv. Еще и делимитер можно указать.
В HeidiSQL есть стандартная функция Tools -> Import CSV file..
До сих пор у меня с ней проблем не было. Достаточно гибкие настройки импорта.