【扫盲帖,或许不专业,请高手斧正】
对媒体流的处理分为两种:“编码(encoding)”和“解码(decoding)”。编码指的是通过一定协议或规则把一段声音或图像转化成计算机数字文件的过程。而解码恰恰是编码的反面——把编码过的媒体文件重新转化成声音或图像。 用来执行编码工作的软件叫“编码器”(Coder 或 Encoder); 声音与图像是两种不同的媒体,它们分别对应人的两种不同感官。作为不同的媒体,我们只能用专门针对声音的软件或是专门针对视频的软件去分别分析处理音频流(Audio Stream)与视频流(Video Stream)。 用来编码音频流的软件叫作“音频编码器”(Audio Encoder) 用来解码音频流的软件叫作“音频解码器”(Audio Decoder) 音频流与视频流的处理必须分别进行,即: 既然音频处理和视频处理必须单独运行,那为什么我们平时看的MPG、MP4、MKV、RMVB、AVI格式的电影都是既包含声音又包含图像的单个文件呢?那是因为我们在通过摄像机获得单独的音频流和视频流后不仅对它们进行了“编码”,还对它们进行了“合成”(Synthesis)。通过合成,音频与视频就打包到一起,生成一个单独的文件。可以说,所有既有声音又有图像的视频文件,100%都是通过某种合成器(Synthesizer)合成过的。(注意:“合成”与“合并”不同,见最后的参考帖子。) 然而必须知道的是:尽管通过合成器可以把音频流和视频流打包成一个文件,但是正如人的眼睛不可能听、人的耳朵不可能看,音频流和视频流是不可能完全地混杂到一起的,是注定“分离”的。因此,所谓“合成”,只是把音频流和视频流用一个容器文件(Container)封装起来,其实里面还是各自独立的。我们在播放视频文件的时候总是先调用分离器(Splitter),将封装合成的视频“分离”成独立的音频和视频码流,然后才调用解码器对这些独立的音频流和视频流进行解码输出。 举个例子应该比较好懂一些: 比如我们有一个音频文件 Sample.mp2 和一个视频文件 Sample.m1v,用编码软件如小日本4通过 MPEG-1 编码方式合成为一个独立文件 Sample.mpg,然后把这个.mpg文件拿到媒体播放器里面播放,直接就可以听到声音看到画面。表面上看播放器只是简单地“播放”了这个文件,实际上这个“播放”包含了更多我们看不到的步骤。这个步骤是这样的:
我们经常听到滤镜(Filter)的名称,实际上就是指的各种分离器或解码器。 参考帖子: |
评论0