数据压缩
维基百科,自由的百科全书
在计算机科学和信息论中,数据压缩或者源编码是按照特定的编码机制用比未经编码少的数据位(或者其它信息相关的单位)表示信息的过程。例如,如果我们将 "compression" 编码为 "comp" 那么这篇文章可以用较少的数据位表示。一种流行的压缩实例是许多计算机都在使用的ZIP 文件格式,它不仅仅提供了压缩的功能,而且还作为归档工具(en:archiver)使用,能够将许多文件存储到同一个文件中。
对于任何形式的通信来说,只有当信息的发送方和接受方都能够理解编码机制的时候压缩数据通信才能够工作。例如,只有当接受方知道这篇文章需要用英语字符解释的时候这篇文章才有意义。同样,只有当接受方知道编码方法的时候他才能够理解压缩数据。一些压缩算法利用了这个特性,在压缩过程中对数据进行加密,例如利用口令加密,以保证只有得到授权的一方才能正确地得到数据。
数据压缩能够实现是因为多数现实世界的数据都有统计冗余。例如,字母 'e' 在英语中比字母 'z' 更加常用,字母 'q' 后面是 'z' 的可能性非常小。无损压缩算法通常利用利用了统计冗余,这样就能更加简练地、但仍然是完整地表示发送方的数据。
如果允许一定程度的保真度损失,那么还可以实现进一步的压缩。例如,人们看图画或者电视画面的时候可能并不会注意到一些细节并不完善。同样,两个音频录音采样序列可能听起来一样,但实际上并不完全一样。有损压缩算法在带来微小差别的情况下使用较少的位数表示图像、视频或者音频。
由于可以帮助减少如硬盘空间与连接带宽这样的昂贵资源的消耗,所以压缩非常重要,然而压缩需要消耗信息处理资源,这也可能是费用昂贵的。所以数据压缩机制的设计需要在压缩能力、失真度、所需计算资源以及其它需要考虑的不同因素之间进行折衷。
一些机制是可逆的,这样就可以恢复原始的数据,这种机制称为无损数据压缩;另外一些机制为了实现更高的压缩率允许一定程度的数据损失,这种机制称为有损数据压缩。
然而,经常有一些文件不能被无损数据压缩算法压缩,实际上对于不含可以辨别样式的数据任何压缩算法都不能压缩。试图压缩已经经过压缩的数据通常得到的结果实际上是扩展数据,试图压缩经过加密的数据通常也会得到这种结果。
实际上,有损数据压缩也会最终达到不能工作的地步。我们来举一个极端的例子,压缩算法每次去掉文件最后一个字节,那么经过这个算法不断的压缩直至文件变空,压缩算法将不能继续工作。
目录 |
[编辑] 应用
一种非常简单的压缩方法是行程长度编码,这种方法使用数据及数据长度这样简单的编码代替同样的连续数据,这是无损数据压缩的一个实例。这种方法经常用于办公计算机以更好地利用磁盘空间、或者更好地利用计算机网络中的带宽。对于电子表格、文本、可执行程序等这样的符号数据来说,无损是一个非常关键的要求,因为除了一些有限的情况,大多数情况下即使是一个数据位的变化都是无法接受的。
对于视频和音频数据,只要不损失数据的重要部分一定程度的质量下降是可以接受的。通过利用人类感知系统的局限,能够大幅度得节约存储空间并且得到的结果质量与原始数据质量相比并没有明显的差别。这些有损数据压缩方法通常需要在压缩速度、压缩数据大小以及质量损失这三者之间进行折衷。
有损图像压缩用于数码相机中,大幅度地提高了存储能力,同时图像质量几乎没有降低。用于DVD的有损MPEG-2编解码视频压缩也实现了类似的功能。
在有损音频压缩中,心理声学的方法用来去除信号中听不见或者很难听见的成分。人类语音的压缩经常使用更加专业的技术,因此人们有时也“语音压缩”或者“语音编码”作为一个独立的研究领域与“音频压缩”区分开来。不同的音频和语音压缩标准都属于音频编解码范畴。例如语音压缩用于因特网电话,而音频压缩is used for CD ripping 并且使用 MP3 播放器解码。
[编辑] 理论
压缩的理论基础是信息论(它与算法信息论密切相关)以及率失真理论,这个领域的研究工作主要是由 Claude Shannon 奠定的,他在二十世纪四十年代末期及五十年代早期发表了这方面的基础性的论文。Doyle 和 Carlson 在2000年写道数据压缩“有所有的工程领域最简单、最优美的设计理论之一”。密码学与编码理论也是密切相关的学科,数据压缩的思想与统计推断也有很深的渊源。
许多无损数据压缩系统都可以看作是四步模型,有损数据压缩系统通常包含更多的步骤,例如它包括预测、频率变换以及量化。
Lempel-Ziv(LZ)压缩方法是最流行的无损存储算法之一。DEFLATE是 LZ 的一个变体,它针对解压速度与压缩率进行了优化,虽然它的压缩速度可能非常缓慢,PKZIP、gzip 以及 PNG 都在使用 DEFLATE。LZW (Lempel-Ziv-Welch)是 Unisys 的专利,直到2003年6月专利到期限,这种方法用于 GIF 图像。另外值得一提的是 LZR (LZ-Renau) 方法,它是 Zip 方法的基础。LZ 方法使用基于表格的压缩模型,其中表格中的条目用重复的数据串替换。对于大多数的 LZ 方法来说,这个表格是从最初的输入数据动态生成的。这个表格经常采用哈夫曼编码维护(例如,SHRI、LZX)。 目前一个性能良好基于 LZ 的编码机制是 LZX,它用于微软公司的 CAB 格式。
最好的压缩工具将概率模型预测结果用于算术编码。算术编码由 Jorma Rissanen 发明,并且由 Witten、Neal 以及 Cleary 将它转变成一个实用的方法。这种方法能够实现比众人皆知的哈夫曼算法更好的压缩,并且它本身非常适合于自适应数据压缩,自适应数据压缩的预测与上下文密切相关。算术编码已经用于二值图像压缩标准 JBIG、文档压缩标准 DejaVu。文本 输入 系统 Dasher 是一个逆算术编码器。
[编辑] 参见
[编辑] 数据压缩专题
- 算法复杂性理论
- 信息熵
- 自解压)
- 图像压缩
- 语音压缩
- 视频压缩
- 多媒体压缩
- 最小描述长度
- 最小消息长度 (two-part lossless compression designed for inference)
[编辑] 压缩算法
[编辑] 无损数据压缩
- 行程长度编码
- 字典编码
- Burrows-Wheeler transform
- 局部匹配预测(也称为 PPM)
- context mixing
- 熵编码
[编辑] 有损数据压缩
- 离散余弦变换
- 分形压缩(en:fractal compression)
- 分形变换(en:fractal transform)
- 小波压缩
- vector quantization
- 线性预测编码
- Distributed Source Coding Using Syndromes, for correlated data
- Modulo-N code for correlated data
- A-law Compander
- Mu-law Compander
[编辑] 实现实例
- DEFLATE ( LZ77 与哈夫曼编码的组合) – ZIP、gzip 与 PNG 文件在使用
- LZMA,7-Zip 与 StuffitX 使用
- LZO (非常快速的 LZ 变体,针对速度要求)
- Unix compress 工具 ( .Z 文件格式)、以及 GIF 使用 LZW
- bzip2 ( Burrows-Wheeler 变换与哈夫曼编码的组合)
- PAQ (一种基于 context mixing 的超高压缩率的算法,但是极度缓慢,是最高压缩比竞争中的佼佼者。)
- JPEG (使用离散余弦变换、量化、哈夫曼编码的图像压缩)
- MPEG (广泛使用的音频及视频压缩标准族,视频压缩使用离散余弦变换以及运动补偿预测)
- Vorbis (类似于 AAC 的基于 DCT 的音频编解码,为了避免专利问题而设计)
- JPEG 2000 (使用小波、量化、熵编码的图像压缩)
- TTA (使用线性预测编码,用于无损音频压缩)
- FLAC (用于无损音频压缩的线性预测编码)
[编辑] 外部链接
- Data Compression Benchmarks and Tests
- Data Compression - Systematisation by T.Strutz
- Public domain article on data compression
- How Compression Works
- Ultimate Command Line Compressors
- Compression Resources catalog (currently the biggest)
- The Data Compression News Blog
- Practical Compressor Test (Compares speed and efficiency for commonly used compression programs)
- The Monthly Data Compression Newsletter
- Compressed File Types and File Extensions