CMOS工作:
我们常见的P、K的视频,它们每帧画面的分辨率分别约为万像素、万像素。也就是说录制p视频和K视频时,CMOS参与成像的区域只有万和万像素。剩余的像素根本用不到。
如:一台万像素相机录制P和K视频时所占COMS工作面积示意图:
众所周知,一台相机动辄几千万像素,用来拍照片肯定是非常好,可用来录制视频,这么多像素就绰绰有余了。
那多余的像素怎样利用起来提供画质呢?
CMOS录制视频的采样类型:——点对点采样
既然录制P、K的视频,只需万像素和万像素就够了。其他像素用不上。要不就在CMOS中央区域横向连续采集个像素,纵向连续采集个像素。这样就能录制P视频了。这种连续采集像素的方式,就叫做点对点采样。
从上示意图可以看出一些点采的问题:
第一,由于没有利用CMOS整个传感器的面积,导致信噪比降低。这不难理解,对比整个CMOS面积采样,相同时间内,中央区域的CMOS面积采集图像信息数量少了许多,受光面积变窄了。
第二,有裁切。由于只用了CMOS中央的一部分区域,相对于整块CMOS的面积录制,画面的视角变了。原本要录制万像素,现只录制中间的万像素的视频,周边的像素未采集,呈现出来的效果就是画面裁切了。
做个实现:你把相机(普通相机)调到K模式拍视频时,会发现画面变大了;没有相机的,手机也能发现,你把拍照模式切到视频录制模式,画面也会变大了。
那怎么办呢?
不如用一块只有万像素的CMOS,这样刚好够录制P的视频。采集多少像素点,就输出多少像素点。录制出的画面没有什么裁切。其实早年前摄像机就是这样的(那时我还小)。
跳采:
既然万像素CMOS录制P视频采用点采的方式有裁切。那能不能让CMOS上整个区域都“工作”,这样就不裁切了吧。好家伙,这都想得出来。可CMOS上面像素这么多,要是都采样,那能拍个K、K的视频出来。可是只需万。
这样好了,每隔几个像素采集一个。让CMOS整个区域看起来像是都在工作。实际采集到的像素还是W,只不过按照一定间距分开采集的。再合并起来变成一个视频。这种按一定间隔采集像素的方式,就叫做跳采。
画面裁切的问题是解决了(其实大部分相机录制的P视频都是跳采录制)。这个技术这么牛逼,它有缺点吗?这不废话嘛,整块CMOS有万像素,你TM跳采了万,丢失了那么多像素,你还好意思说你有没有缺点。
每隔几个像素采一个,很容易出现“断层”、锯齿、摩尔纹现象,毕竟是丢失了大部分像素。
像素合并:
遇到问题就解决问题,不想有裁切、又不想损失那么多信息。那干脆把CMOS上万像素当成万像素来读取,把CMOS上面每像素合并当作一个像素,这样既全局利用了CMOS,而且又不丢失像素(理想状态下),简直两全其美。这种将多个像素合并成一个像素的采集方式,就叫做像素合并采集。
实际上,并不是采集了所有像素,中端机的CMOS无法支撑全像素读取的。主要原因是像素太多,相机芯片计算不过来,只能读取一部分。也是说万像素CMOS,真正采集的像素要低于万的。所以还是有裁切系数的,只不过裁切系数小。
你以为这就是最理想的录制效果吗?将多个像素点合并成一个大的像素点,精度肯定要低于小像素点。给你万像素CMOS,是想让你提高画质的。消消气,每种技术都会有它的缺点和优点。既然目的为了提升画质,对应的也要去做一些妥协。
超级采样技术由来:
在生活中也不难发现:当我们把一张图片不断放大时,会发现图像慢慢地变模糊;当我们不断缩小时,图像就会越来越清晰了。也就说把画面缩小可以让图像变得更清晰。
超级采样:
既然缩小就能提升画质,那能不能采集CMOS上面全部的万像素,再缩小至万像素(P),这样画质不就提升了吗?
好家伙,太敢想了。从万压缩至万,压缩倍率太大了,相机芯片运算不过来,CMOS既要采集像素又要压缩像素,还不配置更牛X的芯片,是没法实现。
画面压缩倍率大不是好事,画质会显得很“肉”。(录制视频不是像素越高越好的)
万压缩至万,芯片算不过来,但把万像素压缩到万像素,还是不难的。这种通过采集高分辨率像素信息再压缩至低分辨率像素信息的方式,就叫做超级采样。
我们可以看到索尼的视频机,AS系列,只有万像素,可以全像素读取采集,超采录制K视频。超采可以提升信噪比,使得画质更好。
CMOS上采集视频方式主要有四种:点采、跳采、像素合并采样、超采;超采录制的视频画质是最好。
对相机的理解:如果用来拍照,那像素越高越好。如果用来录制像素适中最好。