研究背景
高光谱(Hyperspectral,HS)图像具有高空间分辨率,同时包含一组同一场景内大量不同窄波段的图像,可以有效的描述场景内在的、可辨识的光谱信息。HS图像常被用于目标检测和分割、异常感知、医疗图像分析等领域。然而为了保证信噪比,传感器一般不能同时获取高光谱分辨率和高空间分辨率的图像。因此,HS图像的相比全色图像或RGB图像,往往会使得同一场景内距离相近的不同材质的光谱发生混合,具有很低的空间分辨率。然而,多光谱(Multispectral,MS)图像对于场景的分析和理解具有重大的意义。 为将这两种图像的优点综合在一起,获取既具有高空间分辨率有具有丰富光谱信息的图像,遥感图像融合技术应运而生。
遥感图像融合是将同一或不同类型传感器获取的不同空间与光谱分辨率图像按照一定的算法进行处理,使得到的新图像同时具有源图像的多光谱及高分辨率特性,以满足不同的应用需求。目的是充分利用源图像中包含的互补信息,消除图像间的冗余信息,突出其有用信息,产生比单一图像信息更精确、更可靠的描述和判决,融合后的图像应该更适合于人类视觉感知或计算机后续处理。
文献综述
高光谱图像遥感技术概况:
随着遥感成像技术的发展,高分辨率的遥感数据受到越来越多不同研究领域中研究者们的青睐。然而,由于地球资源卫星传感器的物理条件限制以及卫星发射成本代价巨大,通常很难直接获取高分辨率的遥感数据。目前,许多载有两个传感器的地球资源卫星,如GeoEye-1,QuickBird,Pleiades和WorldView系列卫星等,它们通常能够获取一对遥感图像数据:多光谱(Multispectral,MS)图像和对应的全色(Panchromatic,PAN)图像,其中,MS图像包含了丰富的光谱信息,但空间分辨率较低,而PAN图像的空间分辨率很高,但缺少光谱信息。虽然MS图像因其具有众多的波段数和丰富的光谱信息而在地物分类和目标识别等实际应用方面具有独特的优势,但是MS图像的空间分辨率很低,例如,Pleiades卫星提供的MS图像的空间分辨率仅有2米,此时一辆轿车只有两个像素左右,形状完全丢失,想识别它几乎不可能。而PAN图像的空间分辨率为0.5米,是MS图像的4倍,此时识别轿车的形状则相对容易。然而由于缺少光谱信息,PAN图像的实际应用范围相对狭窄。因此,为了提高MS图像和PAN图像的综合利用率,我们可以通过融合技术将低分辨率MS图像和PAN图像合并成高分辨率的MS图像,即利用PAN图像对低分辨率MS 图像的空间结构进行锐化以提高MS图像的空间分辨率。通常,这种MS图像和PAN图像的融合技术也称为Pan-sharpening(融合),即遥感图像融合技术。
传统高光谱融合方法
- HIS 、PCA、HPF等基于成分替代的方法
基于人类对高亮度更敏感的事实,传统PAN-sharpening方法一般致力于使用主成分分析、饱和度发掘等统计方法来利用全色高分图像替换低分高光谱图像,从而还原原图像的可靠亮度信息。但这些方法都不可避免地会导致生成图像光谱的扭曲。
- CNMF、PALM等基于矩阵分解的方法
将传感器观测视作单层线性模型:
其中是空间扩散变换矩阵,是光谱响应变换矩阵,他们分别表示传感器成像时,对原始图像的空间维度、光谱维度的退化。和为两个误差项。之后以MSE、PSNR等指标为损失函数,先对MS图像进行直接上采样,再采用几种不同的迭代算法对上采样的结果进行更新,直到收敛。这些方法在Harvard、Pavia、CAVE等公开高光谱数据集上的表现都十分出色,一度达到SOTA。但这些方法都很大程度收到领域限制,效果也随着使用的领域而变化。
- 贝叶斯方法
贝叶斯方法依赖于在给定观察到的MS和PAN 图像的情况下使用全分辨率目标图像的后验分布。确定合适的方法进行先验分布极为重要,常见的分布形式有最大似然法、模拟退火算法、变分法和线性最小均方差误差法。
基于深度学习的高光谱融合方法
- 部分全连接卷积神经网络(PDCon-SSF-CNN)
将图像的退化视作两个卷积运算:,,表示以卷积核对空间维度进行下采样运算以生成高光谱低分图像,表示以卷积核对光谱维度进行下采样运算以生成高光谱低分图像。
图1 PDCon-SSF-CNN模型结构
以上是毕业论文开题文献,课题毕业论文、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。