收藏本站
《中国科学院长春光学精密机械与物理研究所》 2017年
收藏 | 手机打开
二维码
手机客户端打开本文

基于多帧影像的航空超分辨成像技术研究

穆绍硕  
【摘要】:随着航空光电载荷的高速发展,更大的画幅、更高的图像分辨率以及更远的作用距离成为航空光电载荷不断追求的目标,但受体积、重量、功耗以及光学系统成像过程中引起的欠采样、运动模糊及噪声等因素影响,航空图像分辨率不能满足实际应用的需求,因此获取高分辨率(HR)航拍图像已成为当今航空领域的热点和难点。提高图像分辨率最直接的方法是采用高分辨率CCD相机,但受工艺水平以及相机图像数据传输速率的限制,通过高分辨率CCD相机采样得到的图像分辨率的能力是十分有限的。近年来,通过信号处理方式提升图像分辨率,即超分辨技术受到广泛关注。超分辨技术即是在不改变原有硬件成像系统基础上,仅通过软件方法,也就是利用信号处理的方法将一幅或多幅包含相似信息而细节不同的低分辨率(LR)图像重构成一幅高分辨率图像。"超"即是克服传统低分辨成像系统固有衍射极限,获取超出光学系统衍射极限以外的空间频率信息,实现进一步提高分辨率的工程应用目的。本文首先介绍超分辨成像技术的研究背景和工程应用,系统的总结、分析和比较了超分辨成像技术的物理成像模型、方法类别和评价体系。在建立的成像模型基础上,针对现有超分辨算法运算复杂度,边缘模糊,图像失真等问题,以多帧航空影像为研究对象,围绕多帧图像的超分辨成像技术主题展开了深入研究。主要研究工作如下:1.为进一步提高拍摄图像的分辨率,提出一种改进的Papoulis-Gerchberg超分辨算法,新算法提出边缘检测方法,可以改善传统方法空间复杂度和重构图像边缘模糊的问题,新算法在原有的算法基础上融于边缘检测,针对多幅同一场景输入图像,在每次Papoulis-Gerchberg迭代过程加入坎尼检测,同时将每步的重构误差投影到下一步重构过程,降低了算法空间复杂度,能有效恢复丢失的边缘高频信息。与现有的经典超分辨重构方法相比,本算法反映图像质量的峰值信噪比和灰度标准差更高,去除了原始重构方法图像边缘叠影现象,有效提高了原始输入图像的分辨率。2.研究了软硬件相结合的超分辨成像技术,首先用探测器扫描获得同一场景的彼此错位亚象元像素的多帧图像作为训练样本和输入图像,然后针对传统局部线性嵌入(LLE)实例学习超分辨算法过于依赖外部训练样本,不利于光电成像系统直接处理等缺点,提出一种基于自学习的改进局部线性嵌入(LLE)算法,采用新的LLE权值计算方法以获得正数权值,同时对初始估计再次运用自学习LLE方法恢复丢失的高频细节信息,最终能获得高质量的重构图像,能满足高质量高分辨率的成像需求。3.针对基于字典学习超分辨重构方法需要大量的HR-LR图像训练冗余字典,且若选取的HR-LR训练图像不含有待重构低分辨图像的频率信息,重构出的高分辨图像会造成失真等缺点,提出自学习字典的多幅超分辨率重构方法,用待重构的多幅同一场景不同运动参数的低分辨率图像做为输入图像和训练图像,分块学习字典,重构出高一尺度图像,并加入到训练图像中,如此依次逐级构造不同尺度图像做为训练图像集,最终重构出达到或最接近目标图像尺度大小的多幅高分辨率图像。最后利用NLM思想将得到的多幅高分辨率图像融合成一幅目标图像尺度大小的最终重构高分辨率图像。仿真实验结果表明,本文算法的重构图像信噪比更高,细节细腻,能从拍摄图像中获得更清晰的高分辨图像。4.提出一种基于自适应的高性能超分辨算法,通过将基于学习与基于重构的超分辨算法相结合,充分利用两者的优点,本文不需外部训练图像,首先以输入图像做为训练图像创建字典块集,其次在训练获得的训练块集中利用自适应学习方法获取HR图像块中心点像素值,然后利用高频恢复方法重构丢失的高频边缘信息,最后结合基于重构方法,提出用边缘做为先验知识满足重构约束,获取最终的高分辨重构图像。本文算法同时解决了基于重构算法边缘模糊和基于学习算法失真的缺点,获得了高质量的高分辨率图像,对于提升航空图像分辨率具有很重要的意义。本文针对目前各种超分辨算法的失真模糊等一系列问题,围绕多帧影像超分辨成像技术进行了探索,取得了阶段性成果,这些成果为进一步的工程实践和成熟应用提供了理论基础,对航空图像超分辨成像具有一定指导意义。
【学位授予单位】:中国科学院长春光学精密机械与物理研究所
【学位级别】:博士
【学位授予年份】:2017
【分类号】:TP391.41

【相似文献】
中国期刊全文数据库 前10条
1 谭璐,朱矩波,吴翊;基于最优一维分解的图像超分辨方法[J];中国图象图形学报;2004年04期
2 宋艳玲;;图像超分辨重建技术研究现状[J];科技创新导报;2012年09期
3 William F.Gabriel ,洪大光 ,李吉良;谱分析与自适应阵列的超分辨技术[J];系统工程与电子技术;1981年12期
4 刘志文,柯有安;一种基于模型的雷达超分辨方法[J];系统工程与电子技术;1993年12期
5 魏劲松,阮昊,施宏仁,干福熹;一种新的超分辨记录点的读出技术[J];光学学报;2003年05期
6 孟婕;丁志华;周琳;;光学相干层析成像轴向超分辨研究[J];光子学报;2008年03期
7 刘妍妍;张新;张建萍;;超分辨重建技术及其研究进展[J];中国光学与应用光学;2009年02期
8 韩军;薛小乐;王星;;光电成像系统超分辨成像技术方法研究[J];应用光学;2011年01期
9 王继良,段凤增;最大熵法在高频雷达角度超分辨中的应用[J];系统工程与电子技术;1993年10期
10 张锋,王阳,徐文东,顾冬红,干福熹;超分辨近场结构技术及其应用[J];光学技术;2003年05期
中国重要会议论文全文数据库 前10条
1 乔延利;叶松;方黎;洪津;方勇华;荀毓龙;;超分辨空间外差光谱成像技术[A];第六届成像光谱技术与应用研讨会文集[C];2006年
2 于建强;袁景和;方晓红;;超分辨多功能荧光显微成像[A];中国化学会第29届学术年会摘要集——第03分会:分析可视化及交叉学科新方法[C];2014年
3 李大勇;吴乐南;;特定条件下的图像超分辨重建快速算法[A];第十三届全国图象图形学学术会议论文集[C];2006年
4 程晓东;曹轩;何彦;;超分辨等离激元散射光成像研究[A];第十七届全国光散射学术会议摘要文集[C];2013年
5 朱明强;张国峰;李冲;龚文亮;严慧;;荧光分子开关用于超分辨光学成像[A];中国化学会第29届学术年会摘要集——第21分会:光化学[C];2014年
6 邹华;朱卫华;嵇阳;吴建伟;;基于超分辨对衍射光斑的压缩整形[A];鲁豫赣黑苏五省光学(激光)学会2011学术年会论文摘要集[C];2011年
7 陈薇;陈丹妮;齐璟;牛憨笨;;用于超分辨荧光成像的荧光标记探针[A];中国光学学会2011年学术大会摘要集[C];2011年
8 易家祥;管卫文;张复实;;高密度超分辨近场光信息存储[A];2008非银盐影像技术及材料发展与应用学术研讨会论文集[C];2008年
9 简威;刘海涛;林列;;双光子荧光超分辨衍射器件设计方法的研究[A];中国光学学会2006年学术大会论文摘要集[C];2006年
10 姚保利;雷铭;但旦;郜鹏;杨延龙;严绍辉;闵俊伟;叶彤;;超分辨光学成像与光学微操纵技术[A];2013年(第五届)西部光子学学术会议论文集[C];2013年
中国重要报纸全文数据库 前1条
1 记者 周建越;苏州研制超分辨显微镜 有望打破欧美垄断[N];苏州日报;2014年
中国博士学位论文全文数据库 前10条
1 姚旭日;鬼成像计算模型分析与实用化研究[D];中国科学院研究生院(空间科学与应用研究中心);2015年
2 吴小川;基于压缩感知的高频超视距雷达超分辨方法研究[D];哈尔滨工业大学;2015年
3 管金称;基于统计优化的雷达扫描波束超分辨[D];电子科技大学;2015年
4 庞辉;远场超分辨可视显微成像技术研究[D];电子科技大学;2015年
5 汤东亮;基于超振荡光场的远场超分辨成像原理和方法研究[D];中国科学院研究生院(光电技术研究所);2016年
6 张寅;运动平台前视雷达超分辨成像理论与方法[D];电子科技大学;2016年
7 吴敏;逆合成孔径雷达提高分辨率成像方法研究[D];西安电子科技大学;2016年
8 王轶凡;基于荧光时空调控的超分辨显微方法与系统研究[D];浙江大学;2016年
9 邓敏军;基于Bandelet变换的时空域图像超分辨重建研究[D];重庆大学;2016年
10 高兆帅;受激辐射损耗显微术的研究和应用[D];中国科学院研究生院(上海应用物理研究所);2017年
中国硕士学位论文全文数据库 前10条
1 李龙珍;基于稀疏测量的超分辨鬼成像研究[D];中国科学院研究生院(空间科学与应用研究中心);2015年
2 位宁;超多宽带源的DOA估计技术研究[D];山东大学;2015年
3 伯君;多视点图像超分辨重建方法研究[D];山东大学;2015年
4 蔡欢庆;宽场荧光超分辨成像系统的研究[D];浙江大学;2015年
5 王宝凯;基于结构探测原理的共焦超分辨方法研究[D];哈尔滨工业大学;2015年
6 汪欢;无源毫米波图像序列超分辨重建算法研究[D];电子科技大学;2014年
7 胡子扬;阵列超分辨测向方法研究[D];中国舰船研究院;2015年
8 程硕;超分辨激光差动共焦微孔测量技术研究[D];北京理工大学;2015年
9 陈朝龙;自然场景下慢速运动目标特征跟踪算法及应用研究[D];贵州大学;2015年
10 付平;基于GPU的混合分辨图像的超分辨的研究与实现[D];电子科技大学;2014年
 快捷付款方式  订购知网充值卡  订购热线  帮助中心
  • 400-819-9993
  • 010-62791813
  • 010-62985026