- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
А вашими распакованными данными не забьётся?
нет. я нашел то что мне нужно в скрипте sypexgeo. но к сожалению я не работал и не разбираюсь в pack функции
искать занимает много системных ресурсов
комент выше ответ. работает по скорости быстрее sqlite
нет. я нашел то что мне нужно в скрипте sypexgeo. но к сожалению я не работал и не разбираюсь в pack функции
Вы же сами дали пример кода с пук унпук
записать в файл
прочитать
только нужно поправить немного его для ваших нужд
на выходе двумерный массив где $persons[ID]=NAMEнет
А если уйти от использования функции json_decode(), которая потребляет много памяти, и просто сохранять данные в подключаемом php-файле с таким содержимым:
Не пробовали?
А если уйти от использования функции json_decode(), которая потребляет много памяти, и просто сохранять данные в подключаемом php-файле с таким содержимым:
Не пробовали?
дело в том что там будет много записей. около 1-2млн. наверно тоже по памяти будет напряг
дело в том что там будет много записей. около 1-2млн. наверно тоже по памяти будет напряг
Тогда опять вернусь к тому, что ваши распакованные данные займут тот же объём памяти. Как отметили выше, для работы с большими объёмами данных придуманы базы данных.
ваши распакованные данные займут тот же объём памяти.
Никто такие данные не распаковывает.
lutskboy, изучайте структуры (к примеру сишные) и реализуйте это на php. Готового варианта, я думаю, никто вам не даст: сильно специфическая штука, писать нужно под конкретную задачу. Примерное чтение бинарников использует sypexgeo, ip2location да и многие другие.
дело в том что там будет много записей. около 1-2млн. наверно тоже по памяти будет напряг
чем вас sqlite с индексом не устроил не понятно, уже бы запустили и всё работало. Если надо просто поместите бд файл в память и всё будет работать еще быстрее.
дело в том что там будет много записей. около 1-2млн. наверно тоже по памяти будет напряг
Ну (раз уж id известные и просто числовые) тогда сделайте не один файл, а (например) 1000. По принципу в первом с id от 0 до 1000, во втором от 1001 до 2000 и т.п. Ну и обращаться к нужному в зависимости от диапазона. И искать будет любым методом в 1000 раз быстрее и память забьётся в 1000 раз меньше на эти данные.
Никто такие данные не распаковывает.
ТС распаковывает, функцией unpack(). Читай топик, прежде чем комментировать.