- Поисковые системы
- Практика оптимизации
- Трафик для сайтов
- Монетизация сайтов
- Сайтостроение
- Социальный Маркетинг
- Общение профессионалов
- Биржа и продажа
- Финансовые объявления
- Работа на постоянной основе
- Сайты - покупка, продажа
- Соцсети: страницы, группы, приложения
- Сайты без доменов
- Трафик, тизерная и баннерная реклама
- Продажа, оценка, регистрация доменов
- Ссылки - обмен, покупка, продажа
- Программы и скрипты
- Размещение статей
- Инфопродукты
- Прочие цифровые товары
- Работа и услуги для вебмастера
- Оптимизация, продвижение и аудит
- Ведение рекламных кампаний
- Услуги в области SMM
- Программирование
- Администрирование серверов и сайтов
- Прокси, ВПН, анонимайзеры, IP
- Платное обучение, вебинары
- Регистрация в каталогах
- Копирайтинг, переводы
- Дизайн
- Usability: консультации и аудит
- Изготовление сайтов
- Наполнение сайтов
- Прочие услуги
- Не про работу
Переиграть и победить: как анализировать конкурентов для продвижения сайта
С помощью Ahrefs
Александр Шестаков
Авторизуйтесь или зарегистрируйтесь, чтобы оставить комментарий
Вопрос: как организовать хранение этих данных?
Запихать массив с данными в разделяемую память.
Можно написать на С демона, который будет держать данные в массиве в памяти.
Но этот путь довольно сложный и браться за него нужно в последнюю очередь, только если другие способы с использованием баз данных не дали эффекта.
Можно написать на С демона, который будет держать данные в массиве в памяти.
Но этот путь довольно сложный и браться за него нужно в последнюю очередь, только если другие способы с использованием баз данных не дали эффекта.
Я так обычно и поступаю. Час работы. Но не все знают С и умеют демоны писать :( так что лучше разделяемая память :2cents:
Я так обычно и поступаю. Час работы. Но не все знают С и умеют демоны писать :( так что лучше разделяемая память :2cents:
Лучше - сначала понять задачу, а потом её решать. И никак не наоборот.
Лучше - сначала понять задачу, а потом её решать. И никак не наоборот.
Задача поставлена в первом сообщении.
можно попробовать, самый простой и быстрый Бинарный поиск, НО только если данные отсортированные!
меня просили такой написать для файла в 10Гиг
правда у ТС не много больше миллиона значений, по этому может быть будет критично
я бы попробовал еще, Квантовый Алгоритм Гровера, если будут много платить :) (шутка)
такой алгоритм применяли в поиске по неупорядоченной базе в 500Тб
ЗЫ: есть готовые решения и задача ТС не полностью описанная
Задача поставлена в первом сообщении.
Просто ради проверки моего KИ: в чём состоит проблема ТС?
Просто ради проверки моего KИ: в чём состоит проблема ТС?
Ему делать нечего. В этом проблема. При таких объёмах всё работает быстро.
апгрейд железа должен помоч или распределение нагрузки на двоих и >
***который будет держать данные в массиве в памяти.***.
мукуль умеет с коробки типы таблиц HEAP - это в памяти будет. так что городить не надо ничего и по идее раз ничего не апдейтится постоянно,то хиты в кэше должны приближаться к 99.99 % - посмотрите по майтопу что там.
может кэш выключен?