Множество/большинство алгоритмов сжатия имеют реализацию параллельной декомпрессии (например, pigz
для gzip
и т. Д.).Алгоритмы параллельного сжатия
Однако редко наблюдается сокращение времени, пропорциональное количеству процессоров, брошенных в задачу, причем большинство из них не приносит пользы от более чем шести процессоров.
Я хотел бы знать, если есть какие-то форматы сжатия с параллельной декомпрессии, встроенной в конструкции - то есть будет теоретически 100x быстрее 100 процессоров, чем с 1.
Спасибо и всего наилучшего :)