很简单。 MPEG=运动图像专家组(Moving Picture Experts Group)的简称。90年7月到94年11月,一群老头在国际标准化组织(ISO)和国际电工委员会(IEC)联合技术委员会(JTC)经过乏味而冗长的技术讨论后制定了这一标准。ISO授权发布,所以作为全球公认的行业标准得到业内遵守。
MPEG可以完成对视频和音频的压缩。这里我们当然只谈视频压缩部分
实际上压缩要干的事情就是去除讯息源的3重冗余度。包括:空间冗余度、时间(动态)冗余度、结构(静态)冗余度
同一帧讯源图像中相邻像素之间的幅度值相近,即同一行上的相邻像素之间幅值相近,相邻行之间同样位置上的像素幅值相近。这被称为图像的空间冗余度;
相邻两帧讯源图像同一位置上像素幅度值相近,体现了讯源图像的时间(动态)冗余度;
讯源图像上每个像素所用bit数的多少表示了比特结构,多用的比特数为冗余量,体现了静态(结构)冗余度。
MPEG是怎样去除这些冗余度的呢?它主要从两个方面入手:
1、利用图像信号的统计特性进行压缩
也就是:
采用运动补偿(MC)去除时间冗余度;
采用离散余弦变换(DCT)和游程长度编码(RLC)去除空间冗余度;
采用可变长度编码(VLC)去除静态(比特结构)冗余度
这3种计算的具体实现我等一下会讲到。现在你只需要明白,它们其实并不太复杂,至少不像它们的名字那样让人望而生畏
2、利用人的视觉生理特性设计压缩
人眼对构成图像的不同频率成分、物体的不同运动程度等具有不同的敏感度,这是由人眼的视觉生理特性所决定的,如人的眼睛含有对亮度敏感的柱状细胞1.8亿个,含有对色彩敏感的椎状细胞0.08亿个,由于柱状细胞的数量远大于椎状细胞,所以眼睛对亮度的敏感程度要大于对色彩的敏感程度。据此,可控制图像适合于人眼的视觉特性,从而达到压缩图像数据量的目的。例如,人眼对低频信号的敏感程度大于对高频信号的敏感程度,可用较少的bit数来表示高频信号;人眼对静态物体的敏感程度大于对动态物体的敏感程度,可减少表示动态物体的bit数;人眼对亮度信号的敏感程度大于对色度信号的敏感程度,可在行、帧方向缩减表示色度信号的bit数;人眼对图像中心信息的敏感程度大于对图像边缘信息的敏感程度,可对边缘信息少分配bit数;人眼对图像水平向及垂直向信息敏感于倾斜向信息,可减少表示倾斜向信息高频成分的bit数等。在实际工作中,由于眼睛对亮度、色度敏感程度不一样,故可将其分开处理。(这一段引用2003年度北京广播学院电视工程专业教材)
所以我们将单元分量RGB改变为YUV(或YCrCb)全局分量,在编码时强调亮度信息,可去掉一些色度信息,如4:4:4变为4:2:2,这就意味着改变了视频的比特结构。去处掉的就是所谓的静态(比特结构)冗余度了。
引用教才部分所说的这个办法,把结构冗余信息去除(RGB->YUV),就可以实现适度的压缩。去除结构冗余度对图像质量无影响,所以可以称作"无损压缩"。但是无损压缩的压缩比不高,压缩能力有限。为了提高压缩比,MPEG标准采用了对图像质量有损伤的"有损压缩"技术,即上面说的去除时间和空间的冗余度。这些是要付出代价的----但这个帐很划算
仔细说说上面那几个算法吧~ 可能需要一点点离散数学/高等数学基础,您才能较好理解 不过就算不是很明白也无所谓,您只需要了解这些处理所起的作用就Ok了~
首先说运动补偿预测。这个好像是这里和ccf的会员们最熟悉的一环了,懂得人多我更要小心描述了
什么叫运动补偿呢?将前一图像帧的相应的块(microblock)按求得的运动矢量进行位移,这就是运动补偿过程。为了压缩视频信号的时间冗余度,MPEG采用了运动补偿预测(Motion Compensated Prediction)。
运动补偿预测假定:通过把画面以一定的提前时间(pre)平移,可以局部地预测当前画面。这里的局部意味着在画面内的每个地方位移的幅度和方向可以是不相同的。采用运动估值的结果进行运动补偿,以便尽可能地减小预测误差。运动估值包括了从视频序列中提取运动信息的一套技术,该技术与所处理图像序列的特点决定着运动补偿性能的优劣。