Компромиссы различных алгоритмов сжатия

Каковы компромиссы различных алгоритмов сжатия?

Целью является резервное копирование, передача и восстановление. Меня не волнует популярность, пока существует достаточно зрелый инструмент для Unix. Я забочусь о

  • время
  • ЦПУ
  • объем памяти
  • уровень сжатия

алгоритмы, которые я рассматриваю, являются

  • застежка-молния
  • BZIP
  • GZIP
  • деготь
  • другие?

4 ответа

Решение

Tar не является алгоритмом сжатия как таковым.

Вы можете использовать zip/gzip, когда время для сжатия / распаковки является наиболее важной проблемой.

Вы можете использовать bzip, когда вам нужна более высокая степень сжатия.

Вы можете использовать LZMA, когда требуется еще большая степень сжатия, но время процессора больше.

Посмотрите здесь.

Лучше всего посмотреть на сайты, посвященные тестам сжатия:

http://www.maximumcompression.com/

http://www.compressionratings.com/

Обычно это зависит от ваших входных данных, но я никогда не находил ничего, что дало бы мне лучшее общее сжатие, чем 7zip ( http://www.7-zip.org/).

Для таких случаев было бы очень просто создать простой стенд для испытаний.

Напишите сценарий, который по очереди использует каждый набор файлов, представляющих те файлы, которые вы хотите использовать, и измерьте достигнутый коэффициент использования времени / ресурсов процессора / памяти / сжатия.

Повторно запустите их статистически значимое количество раз, и вы получите ответ.

Другие вопросы по тегам