图像分辨率是什么意思5微米什么意思

影像分辨率是指地面分辨率在不哃比例尺的具体影像上的反映影像分辨率随影像的比例尺不同而变化,

像素和分辨率是成正比的

越大,分辨率也越高像素分有效像素和 CCD 像素。500万像素的数码相机最大影像分辨率像素,800万像素的数码相机最大影像分辨率是像素。可以看出像素越高,最大输出的影潒分辨率也越高

记录数据的最小度量单位

遥感影像分辨率是用于记录数据的最小度量单位,一般用来描述在显示设备上所能够显示的点嘚数量(行、列)或在影像中一个像元点所表示的面积。

随着遥感技术的不断发展卫星影像空间分辨率越来越高,目前的高分辨率遥感影像的分辨率已提升至亚

  米级遥感影像空间分辨率从几百米到亚米级的层次化,满足了多种比例尺制图的需求遥感影像的引入使得传统制图发生了深刻的变革,使得地图制作具有了快速度、高质量、低成本、现势性等诸多优点

因为遥感拍摄的像片是由位于不同高度,装在不同载体(如飞机、卫星等)上的不同清晰度(分辨率)照相设备以不同的照相(采集)方式,获取的

像片(图像、数据、影像等)这些遥感图像是具有不同清晰度、不同分辨率的照片。类似我们在生活中用135照相机拍摄一棵树从汽车上拍一张,然后再从飞機上拍一张两张135底片在放大同一棵树时,其放大效果是不一样的肯定是高度低的135照片放大后的效果最清晰,也就是说分辨率最高

遥感卫星的飞行高度一般在400km~600km之间,图像分辨率是什么意思一般从1 km~1m之间图像分辨率是什么意思是什么意思呢?可以这样理解一个像元,代表地面的面积是多少像元是什么意思呢?像元相当于电视屏幕上的一个点(电视是由若干个点组成的图像画面)相当于计算机显礻屏幕上的一个象素,相当于一群举着不同色板拼成画图的人中的一个

当分辨率为1km时,一个像元代表地面1kmX1km的面积即1km2;当分辨率为30m时,┅个像元代表地面30m×30m的面积;当分辨率为1m时也就是说,图像上的一个像元相当于地面1m x 1m的面积即1m2

2.常见传感器的空间分辨率

1)CBERS-1 中巴资源衛星:空间分辨率:256米

3)ERS卫星空间分辨率:方位方向<30米,距离方向<26.3米

4)日本JERS-1卫星:空间分辨率:方位方向18米,距离方向18米

波束位置 叺射角(度) 标称分辨率(米) 标称轴宽(公里)

波段号 波段 频谱范围μ 分辨率m

波段号 类型 波谱范围 地面分辨率

7、Quick Bird(快鸟)数据:分辨率 0.61米(星下点) 2.44米(星下点)。

  • 张安定.遥感原理与应用题解:科学出版社2016
  • .中国知网[引用日期]
}

昨天被问到一个有点儿意思的话題:“如果我想用拍细菌而且是很多细菌,放大后还能一个个看清楚怎样的成像系统才能满足?”

这个问题最现实的回答是转接也能拍到很多活灵活现的细菌。但对方表达的更深一层意思是:分辨率的上限到底有多高有没有可能我们随手一拍,放大放大再放大就看嘚清细菌(0.5~5微米)级的物体

理想成像系统是用1个像素对应1个细菌,假设细菌是1微米=0.001毫米全画幅36mm X 24mm,也就是8.64亿像素但显然,这个逻辑太悝想了显得有些幼稚:首先是无视了镜头光学分辨率的限制,第二是无视了像差第三是即便建立在8.64亿个细菌逐行逐列排好队的前提下,依然忽略了采样定律

第一个问题:光学分辨率

大家应该都听说过艾里斑的概念,从图像来看就是下面这个东东:

艾里斑是一个极小的點光源在通过理想透镜后于像面所形成,之所以无法还原为点是因为光线的波动性,而根据上的每一个点都可以是作为独立的子球媔波光源,所以无数个子波之间互相抵消或增强形成新的波前。

但成像系统都有孔径限制(镜片尺寸、光圈尺寸等等)当波前受限于┅个孔径时,会产生衍射效应造成波前向后弯曲,在像面形成一个由中心亮斑和一组照度快速下降的同心圆环组成的斑点这就是艾里斑。

一个有限孔径的光学系统产生的艾里斑衍射图就确定了这套装置的极限分辨率两个临近的艾里斑靠近,直至它们各自中心亮斑峰值嘚距离下降到0.5λ(波长)/NA(数值孔径折射率n乘以出瞳孔径角半数U的正弦)时,两者就无法分辨了稍稍拉长到0.61λ/NA时符合瑞利判据,可以汾辨出两个不同的艾里衍射班当一个衍射班的极大值和另一个衍射斑的第一条暗纹重合,之间就出现清晰的界限还是根据瑞利判据,此时两个峰值的距离Z就等于:

若是以像素对应的话如果λ取0.55微米的太阳光均值,那像素间最小间距就是0.617微米对应到全画幅即为22亿6958万像素,这可以基本理解为在透镜衍射影响下的密度上限但记住:这个基于没有任何像差的理想成像系统,实际应用中与理想值的差距很大而且从透镜的角度来说,角分辨率的概念也相当重要此时对应的最小角分辨率函数为:

θ为最小角,D为出瞳系统孔径,因为最小角分辨率是波长的直接函数是系统孔径的反函数,所以减小波长或增大孔径都能提高极限分辨率但这俩显然都是有严格的限定范围(尤其對民用成像系统来说),用弧度来计算上式更为直观:

显然系统孔径越大,最小分辨率开角就越小举个例子:取λ为太阳光的均值0.55微米,弧度1秒为4.85 X 10的-6次方整理可得:

单位为弧秒,这个数据同样是理想值实际情况与此存在偏差。比如望远中的杜氏极限描述了等亮星间距离大于等于4.6/D时两颗星星才能目视分辨。而对于分光仪等光学仪器来说分辨率N就表示它最小可探测的波长差是仪器使用波长的1/N。

在数芓成像系统里使相邻艾里斑突破衍射极限的光圈F是:

其中p为单个像素尺寸,所以在一定的情况下像素密度越高,极限衍射光圈越大換言之,相同的像素总数传感器尺寸越大,极限衍射光圈越小

艾里斑的讨论建立在理想的、无像差的、孔径具有均匀通过率的理想透鏡上,并且有被均匀振幅的理想波前照射像差和不均匀透射/振幅都会负面影响到分辨率,严格来说就是继续让原本就呈现艾里斑状扩散嘚像继续以各种形态弥散开。

像差的类型非常多按指数之和为级,一级像差有2个(放大率和横向像差)三级像差有5个(球差、慧差、像散、场曲、畸变),五级像差有9个(五级球差、线性慧差、斜球差、椭球差等)七级像差14个,九级像差20个以及:

个n级像差。实用Φ都是像差的组合而非单项其中大家比较熟悉的应该就是三级像差了。

比如上图所示的各种球差看起来跟艾里斑是不是很相似?是一個由光晕环绕的亮斑无论过校正还是欠矫正,球差都会降低像的对比使其细节模糊,所以一些镜头明明已经上焦但照片依然模糊基夲都是球差的问题。同时球差也是决定虚化效果的关键因素之一

当然,以此类推色差会导致不同波长之间的互相干扰、慧差像散进一步扭曲像面的点扩散形式、暗角降低边缘信噪比……而且无论是多么完美的校正,像差也一定会存在对分辨率的影响也自然一定存在,所以像素极限远不像理论那么高

MTF这个词大家至少应该很眼熟,除了可以标定镜头分辨率之外当然也可以衡量传感器的分辨率,而它们對应的都是空间频率单位有线对/毫米(lp/mm)、线宽/像高(LW/PH)、线对/像高(lp/PH)、周期/像素(Cycles/Pixel)等等,听起来很不一样但只是量度方式不同洏已。

分辨率落实到具体意义上就是看像面可以还原多少物面的细节,比如1000个线对拍出来之后还能分辨多少如果是以黑白相间的正弦波为例:

波峰与波谷分别对应1个像素,在一一对应的情况下物面的1000个正弦波相位就需要1000个像面的对应点即可还原,在数字传感器上像媔的对应点也就是像素,像素密度就决定了采样率

但即便是最简单的正弦波,它与像素(采样点)也会存在相位差如果是1:1采样,原始信号稍有一点相位差像素就基本无法正确采样出物面的应有形状,出现摩尔纹或伪色分辨率急剧下降:

这时候只能通过增加像素密喥,也就是增加采样率来实现而这就是奈奎斯特采样定律的意义所在了——在与数字信号转换时,采样频率需大于模拟信号最高频率2倍才能保证数字信号完整保留原始信息,传感器的奈奎斯特频率有公式:

对于尺寸一定的传感器而言像素间距越小,也即像素密度越大奈奎斯特频率越高,这也是为什么说“像素即正义”的原因依然是一个简单的正弦波,高采样率在各种相位差的影响下也能更好地还原信号提升可以容忍频率更高的正弦波并还原,换句话说就是提高了分辨率:

可以看到2倍还不算特别靠谱实际应用中甚至要求奈奎斯特频率是峰值频率的5-10倍,也即1个极小点光源需要5-10个像素来采样还原:

这样是不是好多了用我们一开始拍细菌的案例来说,8.64亿个1微米直径嘚细菌需要43.2-86.4亿像素去进行采样。而按照衍射极限理论550nm单光照射时,至少需要一块51mm X 34mm的传感器才能踩到理论门槛而且依然是在无视现有數字传感器工艺和透镜系统像差的极理想条件下。

简单来说像素密度高采样率高,利于消除摩尔纹、伪色并提高锐度……很多人都觉嘚上高像素没有意义,觉得在100%放大时细节模糊但一直以来都是道听途说,小胖就以实例为证下图是某手机的1/1.7英寸传感器4000万像素RAW输出,100%放大:

200F1.8。请不要在意这随意的画风看看细节好像也没有不堪到让人尴尬的地步……对手机成像“无细节”的印象主要来自于较为严重嘚机内涂抹。为提升信噪比大多的确是会用分辨率和锐度去换信噪比。但实际上还很容易忽略了焦距和物距的影响——有用过拍摄经驗就不难发现,比如无论性能再强的14mm镜头甚至配合D850这样的强力机身,拍摄物距在10米开外的风光照时100%放大数毛也同样缺乏细节,所以不談焦距物距就数毛相当于在耍流氓

突破分辨率极限的终极手段——拼接

我们前面讨论的分辨率极限有一个前提,那就是基于单次拍摄倳实上简单来看不难发现其实很大程度上我们也受制于传感器尺寸,要是能无限扩大原生系统拍细菌这种事情还真不是不可能。但突破現有技术极限的事情显然不能按套路出牌所以现在的极高分辨率摄影几乎都选择了相同的方法——拼接。

上图是一张伦敦看起来是不昰没啥了不起的?但事实上这是260张D850+300mm F2.8拍摄的照片拼接而成总像素达到73亿!如果是每一张都贴边拍摄的话,总像素应该是117亿但全景都需要邊缘重叠,所以减去重叠部分这张照片相当于使用了140400mm^2的传感器,按3:2比例计算(虽然照片并不是这个比例)也即459mm X 305mm的传感器进行拍摄。这個尺寸是什么概念8X10英寸大画幅页片的尺寸是201.7mm X 252.5mm……当然,这只是简单计算并不严谨(比如每一张的曝光时间可能并不一致,相当于做 HDR了)而这张截图只展示了它155度视角里的一小部分而已,这么多照片的拼接意味着一件事:你可以进行相当任性的局部放大比如这样:

是嘚,就是前一张图中部偏上的那个塔尖拼接超高分辨率照片可以说是效果惊人,但过程也无比繁琐甚至昂贵还伴随着很高的失败率,泹在追求极限的路上们也从未掉队对于普通来说只需要理解一件事——在不考虑图像处理器主观性的前提下,现有传感器的分辨率远未箌极限别忘了在信噪比的章节我们还提过高像素缩图大法的优点,因此未来三五年看到主流机型突破半亿甚至逼近1亿像素同时连拍对焦还刷得飞起,我觉得都是无需意外的事情因为它本就应该会发生……

}
  • 光学分辨率就是扫描仪的实际分辨率它决定了图像的清晰度和锐利度的关键性能指标
    全部
}

我要回帖

更多关于 图像分辨率是什么意思 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信