А как это миллион файлов грузиться на сервер будет ? Т.е. если десяток другой файлов, то тут ясно, выбрал категорию куда линковать и через мультиаплоад загнал файлы.
Если найдете такого гения, дайте знать :)
В свое время пробовал подобное реализовывать через api опен оффиса. Но на выходе получались дикие косяки с форматированием текстов. Тут скорее всего надо будет иметь win сервер с установленным микрософт и опен оффисом. И в зависимости от файла, скармливать задание одному или другому.
как вариант в одном клиенте открыть транзакицю, обратиться к таблице, а во втором клиенте тоже обратиться.
Но следует учитывать, что транзакции тоже есть на чтение, на запись.
да, примерно так. Внутри транзакции происходит проверка баланса, проверка наличия товара, списывание товара, запись продажи, перерасчет баланса.
У себя в транзакции делаю. Т.е. в ней читаю баланс, проверяю на нужную сумму, создаю запись лога на уменьшение суммы, изменяю баланс.
Тут даже дело не в нагруженном проекте. Просто банально бывает от юзера по 2 одинаковых запроса прилетает в момент. Поэтому в транзакции можно успеть отследить дубль.
Но тем не менее у себя в импорте вы читаете с захордкоденого пути и не создаете ни каких связей. На пхп так же можно сделать это в три строки.
По хорошему весь импорт должен делаться в транзакции, а там где у вас "exept: pass" - должен быть откат транзакции, вывод ошибки и окончания действия импорта.
Это уже не говоря о том, что категорию и автора нельзя передавать по id. Их надо извлечь из базы и при отсутствии - создать.
Пчелы против меда ?
Как минимум выписки за пол года с налоговой о получении дохода по статье с вашего сайта.
А если серьезно, то проблема где то в смс гейтвее, которая судя по всему временная. Так как у других все нормально, да и у вас она только через 19 месяцев использования возникла.
Переведите оплату через саппорт, ведь от них вы все коды подтверждений получаете.
саппорт именно в ovh ? Т.е. не kimsufi, soyoustart. И какого рода проблемы были ?
Не знаю, никогда не приходилось. Изредка приходилось парсить XML и втыкался в кучу проблем. Но возможно не так делал.
Что в общем то и не правильно. Грубо говоря:
1. берем первую запись из поста - переносим в нужном виде
2.1 берем связанные теги этого поста - переносим
2.2 берем картинки этого поста - переносим
3. по циклу возвращаемся к пункту 1.
Не надо выбирать сразу и все. Пускай будет хоть миллион запросов, для импорта это совершенно не критично.
точно такой же синтаксис как и для mysql, при учете, что таблицы уже созданы.
SELECT/UPDATE/INSERT по одной таблице - это вроде ну самый базовый уровень. Не представляю, куда уж меньше.
Это как гланды через задний проход удалять. Легче потратить 10-20 минут на составление (изучение) SQL запросов, чем воротить такую схему.
Честное слово, не понимаю в чем сложность из одной таблицы сделать "select a,b,c from table" а в другой раскидать по нужным полям через "insert into table (a,n,c) values(a,b,c)"
В любом случае для джанги придется делать то же самое, только в первой части придется читать json/xml, а во второй части присваивать значения объекту и сохранять его. Но при этом на вашу голову ляжет определение типов и их конвертация.