Что сжимается и какой алгоритм используется?
Я уже писал что задача сжатия словаря
отличается от задачи сжатия текста, ...
Почему как ни странно? Если количество информации
одинаковое то и сжимать можно до одинакового размера
с поправкой на особенности алгоритмов, ...
Паковать надо совсем не так, ...
Не все так просто, ...
Я согласен с этим утверждением, ...
Порядка 100 тысяч слов, точнее не считал,
но это были не исходные формы, скорее это
можно назвать уникальными словами, ...
Задача словаря с морфологией как это
обычно понимают практически такая же
с точностью до порядка 10 процентов, ...
Я уже написал в каком порядке могут быть ответы,
прочитайте эту тему еще раз внимательно, ...
Не знаю как это сделали они,
я сжимал словарь заранее и разжимал его при поиске, ...
Если Вы будете хамить то ответа не будет, ...
Еще раз повторяю что Вы не очень внимательны, ...
Потому что сначала надо знать какая была задача и
уже потом приспособить решение для новых условий, ...
Похоже что Вы обойдетесь без этой технологии, ...
Куда уже гнать? Намного быстрее физически невозможно, ...
А процессор Pentium от того что было до него
существенно отличается не конвейером который
был и раньше а параллельностью вычислений
в одном процессоре, ...
Это совсем разные задачи, ...
Размер сравним, алгоритм бесплатно не раздается, ...
300kb вполне достаточно, ...
Это было практически без задержек для пользователя
даже на ЕС-1841 с тактовой частотой 4.5 MHz а насколько
быстро получится на современных гигагерцах с Pentium
распараллеливанием при компиляции оптимизирующим
компилятором надо пробовать, ...
Разворачивать словарь можно по разному, ...
Как я уже писал один пользователь на одной машине, ...
Похоже что Вы не очень внимательны, ...