数码相机成像原理

一 镜头

将被摄像目标反射的光线聚焦在成像元件上。

二 对焦

数码相机自动对焦镜头从工作原理上说大多都采用了间接实测物距方式进行对焦。它是利用一些可以被利用的间接距离测量方式来获取物距,通过运算,伺服电路驱动调节焦距的微型马达,带动调焦镜片组进行轴向移动,来达到自动调节焦距的目的。经常被利用来进行间接距离测量的方式有:无源光学基线测距、有源超声波测距、有源主动红外测距以及现代的激光技术在测量领域的应用等。

三 感光元件~成像元件

相比传统的胶片相机来说,数码相机最大的改变就是将感光元件从胶片转变为了CCD/CMOS。

相比传统的胶片相机来说,数码相机最大的改变就是将感光元件从胶片转变为了CCD/CMOS。

CCD的全称是Charge Couple Device,翻译过来就是“光电荷耦合器件”,CMOS的全称是Complementary Metal-Oxide Semiconductor,是“互补金属氧化物半导体”的意思。CCD和CMOS的工作原理有一个共通点,那就是都是用光敏二极管来作为光-电信号的转化元件。

  它们每个感光元件的像素点分别对应图像传感器中的一个像点,由于感光元件只能感应光的强度,无法捕获色彩信息,因此彩色CCD/CMOS图像传感器必须在感光元件上方覆盖彩色滤光片。在这方面,不同的传感器厂商有不同的解决方案,最常用的做法是覆盖RGB红绿蓝三色滤光片,以1:2:1的构成由四个像点构成一个彩色像素(即红蓝滤光片分别覆盖一个像点,剩下的两个像点都覆盖绿色滤光片),这种解决方案就是大名鼎鼎的拜耳滤镜。

在接受光照之后,感光元件产生对应的电流,电流大小与光强对应,因此感光元件直接输出的电信号是模拟的。在CCD传感器中,每一个感光元件都不对此作进一步的处理,而是将它直接输出到下一个感光元件的存储单元,结合该元件生成的模拟信号后再输出给第三个感光元件,依次类推,直到结合最后一个感光元件的信号才能形成统一的输出。

由于感光元件生成的电信号实在太微弱了,无法直接进行模数转换工作,因此这些输出数据必须做统一的放大处理。这项任务是由CCD传感器中的放大器专门负责,经放大器处理之后,每个像点的电信号强度都获得同样幅度的增大。但由于CCD本身无法将模拟信号直接转换为数字信号,因此还需要一个专门的模数转换芯片进行处理,最终以二进制数字图像矩阵的形式输出给专门的中央控制器处理芯片。

而CMOS传感器中每一个感光元件都直接整合了放大器和模数转换逻辑(ADC),当感光二极管接受光照、产生模拟的电信号之后,电信号首先被该感光元件中的放大器放大,然后直接转换成对应的数字信号。

CCD与CMOS工作示意图

CMOS和CCD图像传感器的主要区别就是CMOS本身就有ADC,而CCD只能使用外部的ADC。CMOS图像传感器集成的ADC能够直接将模拟的电压信号直接转换成二进制的数字信号。这些数字信号将被进一步处理后最终根据不同的色度要求形成红、绿、蓝三种色彩信道,通过相应的像素来显示出具体的颜色和深度。除此之外,还有一主要区别在于读出信号所用的方法。CCD的感光元件除了感光二极管之外,还包括一个用于控制相邻电荷的存储单元,CCD感光元件中的有效感光面积较大,在同等条件下可接收到较强的光信号,对应的输出电信号也更明晰。

而CMOS感光元件的构成就比较复杂,除处于核心地位的感光二极管之外,它还包括放大器与模数转换电路,每个像点的构成为一个感光二极管和三颗晶体管,而感光二极管占据的面积只是整个元件的一小部分,造成CMOS传感器的开口率远低于CCD(开口率:有效感光区域与整个感光元件的面积比值);这样在接受同等光照及元件大小相同的情况下,CMOS感光元件所能捕捉到的光信号就明显小于CCD元件,灵敏度较低。

体现在输出结果上,就是CMOS传感器捕捉到的图像内容不如CCD传感器来得丰富,噪点较明显,这也是早期CMOS传感器只能用于低端场合的一大原因。CMOS开口率低造成的另一个麻烦在于,它的像素点密度无法做到媲美CCD的地步,因此在传感器尺寸相同的前提下,CCD的像素规模总是高于同时期的CMOS传感器。

但随着科技的日渐进步,CMOS的制作工艺有了大幅度的提高,已经取代了CCD成为了现今数码相机的主流感光元件。一个生动的画面通过上述复杂的机内处理,变成了一系列二进制的数字信号,感光元件的任务就此结束。下面要开始忙活的,就是相机的大脑——处理器。

处理器

数码相机中处理器主要分两类,中央处理器和图像处理器。前者是数码相机的大脑,数码相机的一切动作,例如开机自检、错误处理等,都由中央控制器发出。中央控制器是一块可编程的DSP(Digital Signal Processing 数字信号处理),在外围或其内部,有一个小容量的FLASH,负责存放一些程序语句。中央控制器按照这些程序语句对相机的各种操作做出反应,例如对环境的光线强度做出判断、调节感光二极管放大器的放大率、用不用闪光灯、采用何种快门速度和光圈等。

另外的图像处理器中除了要把每一个像素点的颜色计算出来外,还要把它们按照一定的时钟周期进行排列,组成完整的图像。在某些场合还要对图像进行一定格式的压缩,使图像的容量更小。图象处理器实质上也是一块可编程的DSP处理器。事实上,图像处理器算法的好坏对处理出来的图像质量影响很大。

在感光元件将实际景物转换为一系列二进制的数字信号后,ADC就会将数字信息流传递给数字信号处理器DSP。在DSP中,大量的数字信息经一系列预设的程序指令后整合成完整的图像。这些指令包括绘制图像传感器数据、分配每个像素的颜色和灰度。在单一传感器数字相机中,如果只有一个彩色滤镜阵列,算法程序将主要进行每个像素的颜色数据处理,通过分解临近的像素颜色来决定某一特定像素的具体色值。

如果使用RGB颜色的话,那么组成最终图像的每个像素的颜色都可以看成是三原色的合成。在对电压/电流信号进行量化以后,图象处理器要对像素的颜色进行计算。例如,在R单元得到的数值是255,在G单元得到的是153,在B单元得到的是51,那么,图象处理器按照本身定义的算法,将以上三个值代入,得到一个R值为255、G值为153、B值为51的颜色。通过如上步骤,最终的图像才能够显示出自然的颜色。

原文地址:https://www.cnblogs.com/ostin/p/9239494.html

时间: 2024-11-13 04:25:12

数码相机成像原理的相关文章

虚拟现实眼镜(增强现实眼镜)成像原理浅析

首先,本文仅仅介绍市面上现有的普通"头盔+透镜+屏幕"的成像原理,其他(如光场成像等等)暂不作解析,期待后续更新- 如果你明白放大镜的原理,我想这个眼镜的原理你也不难理解了. 虚拟现实眼镜现在的结构一般都是"透镜+屏幕"的成像方式,透镜在眼前2-3cm处,屏幕距透镜3-6cm,虚像成像在眼前25cm-50cm左右.(这就带来了视力疲劳的问题,戴头盔眼镜时,视线将一直持续聚焦在25cm-50cm处,无法移动,并且视野里全部是电子显示屏,时间长后眼部肌肉会极度疲劳,想象

记录相机成像原理

相机成像由 世界坐标系(一般是真实存在物体的中心为原点) 到相机坐标系(以光轴为z轴) 到成像坐标系(2D平面,由相机坐标系透视变换所得) 到像素坐标系(2D) 由三维世界坐标系转换到相机坐标系称之为刚体变换 是一个平移加旋转的过程,因此变换矩阵为正交矩阵,即AAT = I, 使用的旋转和平移系数属于相机外参 由相机坐标系到成像坐标系是一个三角形投影的过程 从3D相机坐标系转换到2D成像坐标系.需要用到相机内参 最后一步是成像坐标系转换到像素坐标系,也就是我们做图像处理的像素坐标,通常原点O会从

人类视觉成像原理

一篇论文上看到的,感觉还不错: 活到老,学到老!对于科学知识,我们人类应始终报以敬畏和学习的态度. 版权声明:本文为博主原创文章,未经博主允许不得转载.

双摄像头立体成像(三)-畸变矫正与立体校正

畸变矫正是上一篇博文的遗留问题,当畸变系数和内外参数矩阵标定完成后,就应该进行畸变的矫正,以达到消除畸变的目的,此其一. 在该系列第一部分的博文中介绍的立体成像原理中提到,要通过两幅图像估计物点的深度信息,就必须在两幅图像中准确的匹配到同一物点,这样才能根据该物点在两幅图像中的位置关系,计算物体深度.为了降低匹配的计算量,两个摄像头的成像平面应处于同一平面.但是,单单依靠严格的摆放摄像头来达到这个目的显然有些困难.立体校正就是利用几何图形变换(Geometric Image Transforma

简析iOS动画原理及实现——Core Animation

本文转载至 http://www.tuicool.com/articles/e2qaYjA 原文  https://tech.imdada.cn/2016/06/21/ios-core-animation/ 主题 Core Animation 背景 随着达达业务的扩大,越来越多的人开始使用达达客户端,参加到众包物流的行业中.达达客户端分为iOS平台和安卓平台. APP开发也从快速迭代的粗旷性开发转向高可复用,提升用户提现的精细化方向发展.iOS动画交互良好,使用广泛,良好的用户体验离不开流畅的界

三维面成像测量系统

获取真实面部软组织三维数据,重建包含头面部具有纹理信息的真实三维数字面部模型.能够客观定量地分析面部外形,可对影响面部外观的临床治疗手段提供必要的参考.采用立体视觉技术重建三维人脸,系统拥有5台高分辨率彩色照相机,按一定要求放置于光照合适的场地.像机标定好后,同时采集5副人脸图像,基于双目视觉成像原理,自动重建出三维面部模型.采用基于网格分析的三维测量软件,提供多项测量,包括:长度,角度,曲率,面积,体积,面部轮廓线提取等. 硬件系统包括:1. 5个canon 单反相机 2.相机支架 3.辅助照

转载:透视投影的原理和实现

透视投影的原理和实现 by Goncely 转载:http://blog.csdn.net/wong_judy/article/details/6283019 摘  要 :透视投影是3D渲染的基本概念,也是3D程序设计的基础.掌握透视投影的原理对于深入理解其他3D渲染管线具有重要作用.本文详细介绍了透视投影的原理和算法实现,包括透视投影的标准模型.一般模型和屏幕坐标变换等,并通过VC实现了一个演示程序. 1 概述 在计算机三维图像中,投影可以看作是一种将三维坐标变换为二维坐标的方法,常用到的有正

透视投影的原理和实现

透视投影的原理和实现 摘  要 :透视投影是3D渲染的基本概念,也是3D程序设计的基础.掌握透视投影的原理对于深入理解其他3D渲染管线具有重要作用.本文详细介绍了透视投影的原理和算法实现,包括透视投影的标准模型.一般模型和屏幕坐标变换等,并通过VC实现了一个演示程序. 1 概述 在计算机三维图像中,投影可以看作是一种将三维坐标变换为二维坐标的方法,常用到的有正交投影和透视投影.正交投影多用于三维健模,透视投影则由于和人的视觉系统相似,多用于在二维平面中对三维世界的呈现. 透视投影(Perspec

相干衍射成像 及 相位恢复算法介绍 (一)

主要介绍相干衍射成像(coherent diffractive imaging,CDI),以及其中用到的各种相位恢复算法,包含几何光学.傅里叶光学.泛函.最优化理论方面的东西.会以 MATLAB 和 OpenCV 两种方式公布代码. MATLAB代码是我过去几年的工作成果,主要是想重写成OpenCV版本的代码,练练手,学习下OpenCV.另外,知网上关于相位恢复方面有价值的论文少之又少,然而国外这个东西已经做得满大街都是了,所以想起一个介绍和引入的作用. ====================