英语原文共 9 页
图像融合:现有技术的进展
图像融合的概念
图像融合指的是将来自同一场景的两个或多个源图像的信息组合在合成图像中的过程,该合成图像保留完整的信息并且更适用于视觉感知或计算机处理。图像融合的目标是减少不确定性并把输出中的冗余最小化,同时也保留了有用特征。 若给定相同的输入源图像,则可以根据具体应用所需来创建不同的融合图像。使用图像融合有几个好处:融合后图像会拥有更宽广的空间域和时间域;图像保持了更低的不确定性、更高的可靠性以及更高的系统性能稳健性。
通常情况下,单个传感器无法表示一个完整的场景。在传感器中,源图像能够提供光谱和空间细节,但如果目标具有与其背景相同的颜色和空间特征,则无法将其与背景区分开。若将源图像与热图像进行融合,即使其颜色和空间细节与其背景相似,也可以轻松地识别比其背景更暖或更冷的目标。融合图像可以提供在单个源图像中无法观察到的信息。图像融合成功地减少了要处理的数据量,降低了冗余,同时尽可能地保留了相关信息量。
历史
图像融合技术是数据融合技术的一个分支,其中的数据以数字和数组的形式出现,代表了亮度、颜色、温度、距离和其他场景属性。这些数据可以是二维(静止图像),三维(体积图像或时空体积形式的视频序列)或更高维度的。早期的图像融合工作可以追溯到八十年代中期。Burt[1]是第一个提出在双目图像融合中使用拉普拉斯金字塔技术的人。后来Burt和Adelson[2]介绍了一种基于分层图像分解的图像融合新方法。
大约在同一时间,Adelson[3]公开了拉普拉斯技术在构建图像时的应用,该图像可以从固定的相机拍摄,同时具有不同焦距图像的扩展深度。后来Toet[4]和Toet等人[5]在图像融合中使用了改进后的金字塔方案。这些技术主要用于融合可见光和红外图像,同时可以实现监视的功能[6]。
其他一些早期的图像融合工作要归功于Lillquist[7],正是因为他开发出了一种用于复合可见/热红外成像的装置,才使得Ajjimarangsee和Huntsberger[8]成功地提出了使用神经网络融合可见光与红外图像的技术。之后Nandhakumar和Aggarwal[9]提出了一个用于场景解释的热图像与视觉图像的融合技术。Rogers等人[10]描述了关于LADAR和被动红外图像的融合方法,这种方法主要用于目标分割。
Li的团队[11]提出了在图像融合中使用离散小波变换(DWT)的方法,而Chipman的团队[12]和Koren的团队[13]几乎同时提出了用于图像融合的可操纵的二进制小波变换法。Waxma及其同事[14,15]开发了一种基于颜色视觉生物模型的计算图像融合方法,并利用这种方法来融合可见光和红外图像。之后,有一种在机器人导航中结合视觉和距离数据[16]并在不同位置捕获图像和模式的方法被提出,这种方法可以在国防应用中进行目标定位和跟踪[17],这进一步促进了图像融合的研究与发展。在过去十年中已经有许多其他融合技术被开发出来。如今,图像融合算法被用作医学研究、遥感图像、军事监视和防御应用等领域。
对于最近新的图像融合理论和应用调查,读者可以参考史密斯和希瑟的论文[18]以及Blum和Liu[19]编辑的论文集。在过去几年中,随着图像融合系统和算法的发展,由Allen Waxman等人组织的关于图像融合和开发的特别会议也为人们提供了不错的参考资源,其中也包括了信息产业大会提供的资源(2000-2004)。本简介中引用的论文清单并非详尽无遗,但它可以提供一些关于该领域重大发展的文章,包括最新的进展和技术难关。
图像融合算法可以分为低级,中级和高级。在一些文献中,图像融合被分为像素级融合,特征级融合和符号级别融合。像素级算法可以在空间域[20,21]或变换域[6,11,22]中工作。尽管像素级融合是局部操作,但是变换域算法可以进行全局创建。通过改变融合图像中的单个系数,空间域中的所有(或整个邻域)图像值将改变。结果就是在增强某些图像区域的属性的过程中,其他图像区域中会产生本不存在的伪图像。郑的团队针对这个问题中采用了一种通过最小化空间频率误差的方法来减少伪图像。在空间域工作的算法能够专注于所需的图像区域,限制其他区域的变化。多分辨率分析是像素级融合中的一种较为流行的方法。Burt[1]和Kolczynski[23]使用具有增加空间范围功能的滤波器,从每个图像中生成了一系列新图像(金字塔),以此分离在不同分辨率下观察到的信息。然后,在变换图像的每个位置上,可以获取拥有最高显着性的金字塔中的值,再使用合成图像的逆变换方法来创建融合图像。
Petrovic和Xydeas [24]使用强度梯度作为显着性的度量方式。这种度量方式可以使用小波变换法来进行图像融合。离散小波变换(DWT)已被用于许多领域[11]。最近,由Kingsol[25]提出的双树复小波变换(DT-CWT)被Nikolov等人进行了展示。刘易斯的团队[26]提出了优于大多数其他灰度图像融合方法的新方法。虽然此前人们在像素级图像融合方面已经做了大量工作,但在特征级和符号级图像融合方的建树却很少。基于特征的算法通常将图像分割成区域并包含了它们的各种属性。[26-28]。基于特征的算法对信号电平噪声不太敏感。[29]Toet首先将每个输入图像分解为一组感知相关的模式,然后进行组合图案并创建包含所有相关图案的合成图像。Nikolov等人[30]利用Mallat和Zhong [31]提出的小波变换法,开发了一种基于多尺度边缘的图像融合技术。另一个中级融合算法是由Piella[28,29]提出的,其中第一步是先将图像进行分割,然后使用获得的区域属性来指导多分辨率分析。
图像注册的作用
低级融合算法会先假设输入图像中像素之间的对应关系,在特定条件下,可以对已注册的图像进行捕获。例如,在相机的内在参数和外在参数没有改变,只有环境参数改变的情况下,所获取的图像将在空间上进行捕获。一些传感器能够捕获已注册的多模态图像[34]。当使用相机捕获图像时,若外部参数和内部参数不同,则需要先注册它们。虽然人们已经发明出了可以捕获已注册的多模态图像的医疗扫描仪,但是为了医学图像的融合的持续发展,首要的任务就是实现对图像的注册工作。Zhang和Blum[35]以及Goshtasby[36]讨论了图像融合在各个领域中的应用。Heather和Smith[43]提出了一种在实时图像上的注册方法。
中级融合算法的核心思想是对图像的特征之间的对应关系进行假设。此前人们在特征对应方面已经做了大量工作,但这些方法非常依赖应用程序和实际需要。后来便提出了用于确定点特征[44-46],线段[47,48]和区域[49,50]之间的对应关系的方法。还提出了用于图像序列的时空对准的技术[51]。高级融合算法需要描述图像之间的对应关系,所以找到这种对应关系也可以被认为是融合算法的核心部分。
应用
如果需要分析场景中的两个或多个图像的所有成像,则可以利用图像融合方法来达到目的。减少冗余并保留有用特征不仅可以改善计算机对图像的处理,还可以更好地进行视觉检查和图像解释。图像融合已被用作医学中的有效工具,希尔[52],Matsopoulos[53]Wong[54]和Pattichis等人[55]成功提出了融合多模态医学图像的技术,用以改善诊疗效果和优化治疗计划。
图像融合技术已被应用于国防领域,具体用于情境意识[56],监视[57],目标跟踪[58],情报收集[59]和人员认证[60]等方面。图像融合还被广泛用于遥感中对航空和卫星图像的解释和分类[21,61-64]。
评估技巧
多传感器和多光谱图像在监视,遥感,医疗诊断,军事和机器人等领域中的广泛使用体现了融合技术质量的重要性,并将其与人体或计算机性能的使用相关联。融合图像需要更好的质量评估工具来比较不同融合技术获得的结果,并得出这些技术的最佳参数。
通常,理想的融合图像是未知的,或者构造起来非常困难。这使得我们无法将融合图像与标准图像进行对比。在用于人类观察的应用中,融合算法的性能可以通过检测、识别、跟踪或分类等任务中的数据来进行测量。这种测量方法需要一个定义明确的任务,可以通过定量测量来体现人类的表现。然而,这代表着它是一项耗费时间且十分昂贵的实验。
近年来,已经提出了计算图像融合质量的评估指标[65,66]。能够准确地描述与人类观察者表现相关的度量标准具有十分重要的价值,但是设计非常困难,因此目前还没有这样的度量标准。为了客观地比较不同的图像融合算法,我们还需要的是可公开的多光谱或多传感器数据集。可以在ImageFusion.org(www.imagefusion.org)或EquinoxSensors.com(“远距离人类识别(HID)数据库集合”)等网站上进行相关数据的查询,通过这样的方式能够所需要的大型和多样化的图像集。
特刊内容
这个特刊介绍了图像融合的一些最新进展。前四篇论文讨论了图像融合的理论和算法方面以及监控和遥感中的应用,后面的四篇论文提出了评估图像融合算法的新指标和方法。
刘易斯的团队回顾了许多基于像素的融合算法,并将它们与[26]中首次提出的基于区域的新型DT-CWT方案进行了比较。 发现尽管基于区域的算法更复杂且通常更慢,但它们比基于像素的算法具有许多优点,例如衰减或增强感兴趣区域的能力或适应视觉系统中用于识别的语义规则的能力和分析。
Mitianoudis和Stathaki使用独立成分分析(ICA)和地形独立成分分析(TICA)构建融合变换图像,其中基础通过offline训练获得。融合的变换图像是使用基于像素和基于区域的规则创建的与基于小波的融合算法相比,它们使用算法表现出更高的感知性能。
Nencini的基于使用曲线变换(CT)的不可分离多分辨率分析,提出了一种用于多光谱(MS)波段全锐化的新图像融合技术。较低分辨率的MS频带被重新调整为较高分辨率全色(Pan)图像的比例,然后通过引入从较高分辨率Pan图像中提取的高通方向细节来进行锐化。
Mesev通过融合标记点数据显示多光谱IKONOS城市数据的分类,导致比传统多光谱分析获得更高的分类精度。为了实现最佳的融合性能,Petrovic和Cootes将客观的融合评估融入到融合过程中。结果表明,该策略相对于许多预定义的融合性能指标提高了多分辨率算法的性能。以这种方式融合的图像可以很好地适应输入的变化参数。郑等人指出了变换域融合算法的问题,并引入了一个新的度量,即空间频率误差的比率,迭代地最小化过度融合或伪像。Chen和Varshney描述了一个受人类视觉系统特征启发的度量标准,用于图像融合算法的质量评估。在本期特刊的第二篇论文中,Petrovic专注于通过比较测试和客观融合评估指标验证进行感知图像融合评估的方法论。
新兴的图像融合技术和未来发展方向
本期特刊中未涉及多种新兴图像融合技术,其中包括:(a)广泛使用成像仪器,捕获已注册的多光谱或多模态图像;(b)传感器和处理能力的成本越来越低,这使得可以开发更复杂的多传感器系统;(c)开发专门的图像/视频融合板(例如来自Pyramid Vision Technologies的Acadia Fusion系统,来自Octec和Waterfall Solutions的ADEPT60图像融合处理器,来自Equinox Corporation的DVP-4000可见/热红外视频融合板,以及BAE Systems推出的笔记本电脑驱动融合和目标检测板;(d)使用标准(通常是现成的)硬件开发实时软件多传感器融合系统;(e)使用融合图像进行数据挖掘和模式识别的最新进展; (f)从多种观点和观点综合研究三维模型的建立;(g)生物启发的数据融合算法,模仿人类大脑用来组合不同感官获得的信息的一些机制。
为了自动化使用图像融合的许多过程,需要找到更好的方法来根据对象及其关系来描述图像。多年来开发的图像理解算法和新开发的图像理解算法可以极大地受益于场景的多个图像的机器处理。因此,需要利用图像理解技术来融合高级图像描述的图像融合算法。
在过去的几年中,预计将建造更精确的三维场景或物体模型的技术。这些模型将根据不同传感器捕获的各种图像构建,并可能通过来自各种来源(如专业图像档案和互联网)的图像进行扩充。我们设想在不久的将来设计和部署更具适应性的实时图像和视频融合系统,可以分析它们自身的性能并反馈这些信息以适应它们的行为并提高它们产生的融合图像的质量。还需要更多的理论工作来开发更快,更准确的全自动图像配准技术,量化更好的图像属性,并研究图像融合是否以及在何种程度上影响进一步的图像处理,例如目标检测和跟踪,以及对象的继承。
致谢
最后,我们想借此机会并感谢我们的匿名审稿人,没有他们,就无法完成这个论文。我们感谢他们对此做出的无私贡献,同时我们还要感谢Belur V. Dasarathy等人提供的建议和热心支持。
基于PCA的医学图像融合研究
摘要
本文针对医学图像融合问题,详细介绍了主成分变换原理,重点分析了基于PCA的图像融合原理和算法。这里我们使用降维来提取医学图像的主要成分,并用全色图像替换它们。最后,医学图像完成融合且融合后的图像很好地保持着原有特征,即使当信息量很大时依旧能够维持稳定性。
介绍
在分析许多问题时,经常遇到各种变量。过多的变量无疑会增加分析问题的难度和复杂性。在许多实际问题中,多个变量之间存在一定的相关性,在研究各种变量之间相关性的基础上,我们使用较少的新变量来替换原始变量,并尽可能少地使用这些新变量来保留原始变量所反应的信息。可以看出来,主成分分析是实现这一目标的强大方法。
图像融合
图像融合是指通过图像处理和计算机技术等多源信道在同一目标上采集的图像数据,最大限度地提取各自信道中的有利信息,最终融合成高质量图像,提高了信息的利用率。图像信息利用率的提高,提高了计算机解释的准确性和可靠性,增强了原始图像的空间分辨率和光谱分辨率,有利于计
以上是毕业论文外文翻译,课题毕业论文、任务书、文献综述、开题报告、程序设计、图纸设计等资料可联系客服协助查找。