网刊加载中。。。

使用Chrome浏览器效果最佳,继续浏览,你可能不会看到最佳的展示效果,

确定继续浏览么?

复制成功,请在其他浏览器进行阅读

基于多形态学成分分析的图像融合  PDF

  • 马晓乐
  • 王志海
  • 胡绍海
北京交通大学 计算机与信息技术学院,北京 100044

中图分类号: TP37

最近更新:2024-01-03

DOI:10.11908/j.issn.0253-374x.23389

  • 全文
  • 图表
  • 参考文献
  • 作者
  • 出版信息
EN
目录contents

摘要

将多尺度分解与稀疏表示相结合,提出了一种基于多形态学成分分析(MCA)的图像融合算法。采用基于联合稀疏表示(JSR)的方法融合卡通子图像中的冗余和互补信息,并利用基于方向特征的方法融合具有更多细节信息和噪声的纹理子图像。结果表明,提出的图像融合算法在主观视觉效果和客观评价指标上均优于先进的图像融合算法。

单个传感器获取到的图像不能完整、准确地描述目标场景。图像融合作为一种有效的图像处理方法,可以将多源传感器采集到的关于同一场景的互补信息进行融合,可以更加准确、可靠地描述场景信息,被广泛应用于医疗诊断、计算机视觉和军事侦察等领

1-3

图像融

4可分为像素级融合、特征级融合和决策级融合。基于像素级融合的方法直接对源图像像素进行处理,可以保留最详细的信息,为其他类型的图像融合奠定基5。因此,默认的图像融合方法是基于像素级融合的方法,包括基于空间域的方法、基于多尺度变换的方法、基于稀疏表示的方法和基于深度学习的方法。

近年来,基于深度学习的图像处理方法在图像融合领域得到了广泛应

6-8。将人工神经网络作为判别器来判别源图像的信息是否属于融合后的图9,再利用建立的网络提取图像特征,最后采用传统的融合方法对提取的特征进行融10。这类方法虽然提高了融合性能,但是无法避免人工设计融合规则的缺点,往往需要标准参考图像和融合参考图像等先验知识。

随着小波及其衍生物的发

11,多尺度变换(MST)在图像处理中得到了广泛应用,特别是在图像融合领域,如基于多尺度特征分解的红外与视觉图像融12、基于非下采样域局部差分的多模态传感器医学图像融13、基于遗传算法快速曲波变换的多模态医学图像融14

近年来,压缩感知技术和稀疏表示理论快速发展,基于稀疏表示的图像融合方法越来越受到关注,如基于稀疏表示的高光谱和多光谱图像融

15、基于几何稀疏表示的多聚焦图像融16。这类方法的融合过程为:首先对源图像进行块处理,然后采用过完备冗余字典对得到的块进行稀疏编码,接着利用融合规则对稀疏系数进行融合,最后通过稀疏重建得到融合后的图像。通过对稀疏字典进行分类,联合稀疏表示(JSR)可以将多源图像分解为互补分量和冗余分量,形态学成分分析(MCA)则将图像分解为卡通分量和纹理分17。因此,形态学成分分析不仅继承了过完备稀疏表示和信号重建的优异性能,能够以最少的原子捕获图像中的高维奇异性特征,还提供了良好的图像结构和纹理自适应处理机制,在图像处理中具有潜在优势。

不同传感器的成像机理不同,同一传感器的成像条件也不同,因此传感器获取的图像不仅包含冗余信息,还包含互补信息。现有的图像融合方法大多忽略了信息之间的互补和冗余关系,在对源图像进行融合时没有进行区分,导致融合结果不完善。此外,直接对源图像进行处理,将增加冗余信息处理的计算量。因此,提出了一种基于多形态学成分分析的图像融合方法,不仅保留了多尺度变换提取特征信息的能力并避免了固定的正交基函数,还可以更好地应用于随机多样的多模态图像融合。

1 形态学成分分析

根据形态学结构,形态学成分分

17-19作为一种基于稀疏表示的图像分解方法,将图像I分解为纹理子图像It和卡通子图像Icar,表达式如下所示:

I=It+Icar=Dtαt+Dcarαcar (1)

式中:DtDcarαtαcar分别表示纹理子图像和卡通子图像对应的冗余字典和稀疏系数。It只能由Dt稀疏表示,不能由Dcar稀疏表示;Icar只能由Dcar稀疏表示,不能由Dt稀疏表示。相关的稀疏模型可以表示为

{αt,αcar}=argminαt,αcarαt0+αcar0+μDtαt+Dcarαcar-I22 (2)

式中:μ表示惩罚因子。

以上模型是非凸的,对其求解存在一定的困难,而且随着字典中原子数的增长其求解复杂度也呈指数增长。基追踪(BP)算法作为一种松弛优化算法,将l0范数转化为其他范数,从而非凸优化问题被转化为一个可解的优化问题。因此,将l1范数引入此优化模型,得到以下模型:

{αt,αcar}=argminαt,αcarαt1+αcar1+
μDtαt+Dcarαcar-I22 (3)

2 基于多形态学成分分析的图像融合算法

基于多形态学成分分析的图像融合算法如图1所示。首先对第一幅源图像I1和第二幅源图像I2进行多形态学成分分析,然后对上一尺度的卡通分量进行形态学成分分析以提取丰富的图像特征,最后得到源图像1的卡通子图像I1car,n和纹理子图像I1t,n以及源图像2的卡通子图像I2car,n和纹理子图像I2t,n,其中下标n表示分解层数。采用不同的融合方法实现不同子图像的融合,最终的融合图像IF可以通过融合后的卡通子图像IFcar,n和纹理子图像IFt,n相加重建得到。

图1  基于多形态学成分分析的图像融合

Fig.1  Image fusion based on multi-morphological component analysis

2.1 融合卡通子图像

图像融合的目的是充分利用源图像信息之间的互补性,解决冗余信息之间的矛盾并增加源图像的可解释性和清晰度,为原始场景提供更全面、可靠、准确的描述。因此,图像可以被分解为冗余分量Ir和互补分量Icom

20。类似式(1),联合稀疏表示模型为

I=Ir+Icom=Drαr+Dcomαcom (4)

式中:DrDcomαrαcom分别表示冗余分量和互补分量各自对应的冗余字典和稀疏系数。当源图像的数量为2的时候,式(4)所代表的模型可以简化为

I1I2=k=1KBk1Bk2=k=1KDcom10Dr0Dcom2Drαcom1αcom2αr (5)

式中:下标1、2表示源图像的序列号;Dcom1Dcom2αcom1αcom2分别表示源图像1、2各自对应的互补字典和稀疏系数;Bk1Bk2分别表示第一幅源图像和第二幅源图像的第k个图像块;K表示每幅源图像中图像块的总数。基于式(4)的图像融合流程如图2所示。图2中,Ic1Ic2IFc表示源图像1、源图像2以及融合后的互补分量。

图2  基于联合稀疏表示的图像融合

Fig.2  Image fusion based on joint sparse representation

2.2 融合纹理子图像

纹理子图像中包括更多的纹理信息、精细的细节和一些自然噪声。为了更有效地保留这些精细的纹理并抑制不必要的噪声,提出了一种基于方向特征(DF)的纹理子图像融合方法,通过比较源图像的图像块中4个不同方向(包括水平、垂直、左对角线和右对角线方向)的信息差来实现。如图3所示,4个方向的24个不同子方向包括5个水平、5个垂直、7个左对角线和7个右对角线子方向。以pm,d(i,j)为中心的大小为n×n的窗口在子方向上的最大值和最小值之间的差由下式得到:

Dm,d(i,j)=max(pm,d(i,j))-min(pm,d(i,j)) (6)

式中:m表示源图像的序列号;d表示图像块的方向。

图3  图像块的不同方向

Fig.3  Different directions of image blocks

通过对比源图像中同一方向特征的差,方向权重wm,d(i,j)可以通过下式得到:

wm,d(i,j)=1,1Mm=1MDm,d(i,j)Dm,d(i,j)T0,其他 (7)

式中:M表示源图像的总数;T表示阈值。与周围的像素相比,噪声是不稀疏的并具有突变特性,导致Dm,d(i,j)非常大。因此,通过对比Dm,d(i,j)与阈值T可以抑制或消除噪声。融合后的像素p(i,j)可以通过下式加权求和得到:

p(i,j)=mdwm,d(i,j)pm,d(i,j)N (8)

式中:N表示方向特征的总数。如图3所示,当窗口的大小为5×5时,N=24

3 实验结果与分析

为了验证提出的图像融合算法的性能,将该算法与一些经典、先进的图像融合算法进行对比,包括基于向导滤波(GFF)的图像融合算

21、基于稀疏表示(SR)的图像融合算22、基于小波变换(DWT)的图像融合算6、基于深度卷积神经网络(CNN)的图像融合算11、基于多尺度加权梯度(MWGF)的图像融合算23、基于多尺度分解和稀疏表示(MST(NSCT)‒SR)的图像融合算24、基于非下采样剪切波变换(NSST‒max)的图像融合算25以及当下比较流行的基于生成对抗网络(GAN)的图像融合算10。其中,对于NSST‒max算法,采用基于取最大的融合规则。

为了评价上述图像融合算法的性能,采用主观评价和客观评价相结合的方法。客观评价指

26包括QMIQNCIEQGQPQYQCBQMIQNCIE是基于信息论的指标,分别测量源图像与融合图像的互信息和非线性相关信息,分别由下式得到:

QMI=2RMI(A,F)H(A)+H(F)+RMI(B,F)H(B)+H(F) (9)
QNCIE=1+i=13λi3logbλi3 (10)

式中:RMI(A,F)RMI(B,F)分别表示源图像AB与融合图像F的互信息;H(A)H(B)H(F)分别表示图像ABF的熵;λi表示非线性相关矩阵的特征值;b表示图像的强度等级,通常b=256QGQP是基于图像特征的指标,分别测量转移的边缘信息和图像特征,表达式如下所示:

QG=ij(QAF(i,j)wA(i,j)+QBF(i,j)wB(i,j))ij(wA(i,j)+wB(i,j)) (11)
QP=PpαPmaxβPminγ (12)

式中:QAF(i,j)QBF(i,j)分别表示在位置(i,j)处源图像AB到融合图像F的边缘信息保留值;wA(i,j)wB(i,j)表示对应的权重;PpPmaxPmin分别表示相位一致性、最大矩和最小矩;αβγ表示系数,可以根据对应分量的重要性调整。QY是基于图像结构相似度的指标,根据结构相似度区别地对待冗余和互补区域,由下式得到:

QY=wWSSSIM(A,FW)+(1-wW)SSSIM(B,FW),        SSSIM(A,BW)0.75maxSSSIM(A,FW),SSSIM(B,FW),        SSSIM(A,BW)<0.75 (13)

式中:SSSIM表示图像的结构相似度;wW表示在窗口W中的局部权重。QCB是基于人类视觉感知的指标,与人类的视觉感知一致,由下式得到:

QCB=QGQM(i,j)¯ (14)

式中:QGQM(i,j)表示全局质量图中的元素。这些指标的值越大,对应的融合图像越好。

3.1 单模态图像融合对比实验

图4显示了取自Lytro数据集的典型彩色多聚焦源图像,融合结果如图5所示。图4中第一行的源图像与融合图像的差图显示在图5对应融合图像的右侧,反映了融合算法将信息从源图像传递到融合图像的能力。

图4  多聚焦源图像

Fig.4  Multi-focus source images

图5  融合图像和差图

Fig.5  Fused images and difference images

图5的第四列和第六列的差图中存在明显的残差信息,即对应源图像的失焦区域被另一源图像相同位置的聚焦区域替代。基于向导滤波的空间域融合算法在由同一传感器得到的具有更多冗余信息的图像融合方面具有更好的能力,尤其是多聚焦源图像融合。虽然由CNN得到的融合图像具有不错的视觉效果,但是基于深度学习的算法在无法提取图像特征时可能无效,并且需要可用的数据库。对比结果表明,所提出的图像融合算法对于多聚焦源图像融合更为有效,具有更为满意的视觉效果。

使用客观指标对Lytro数据集中的20对多聚焦源图像得到的融合图像进行客观评价,每个指标的客观值如表1所示。可以看到,所提出的算法优于其他图像融合算法,得到的融合图像在Lytro数据集中的整体视觉效果较好。

表1  Lytro数据集中融合图像指标值
Tab.1  Index values of fused image in Lytro dataset
算法QMIQNCIEQGQPQYQCB
GFF 1.140 7 0.840 9 0.735 6 0.902 3 0.977 7 0.803 5
SR 1.110 5 0.838 7 0.725 2 0.894 8 0.976 7 0.789 5
DWT 0.952 8 0.830 5 0.688 7 0.855 4 0.963 9 0.754 2
CNN 1.173 9 0.842 9 0.736 0 0.901 6 0.977 1 0.810 9
MWGF 1.136 4 0.840 8 0.725 2 0.899 3 0.976 8 0.804 7
MST(NSCT)‒SR 1.007 2 0.832 9 0.712 6 0.888 7 0.974 5 0.777 0
NSST‒max 0.940 1 0.829 4 0.698 0 0.878 1 0.970 1 0.762 7
GAN 1.038 1 0.836 6 0.670 1 0.848 2 0.957 2 0.763 1
本算法 1.196 9 0.844 7 0.739 5 0.903 5 0.978 3 0.811 5

3.2 多模态图像融合对比实验

进行对比实验以验证所提算法的有效性和泛化能力,以红外和可见光图像为例。红外图像通过红外感知目标表面温度生成,如图6a所示;可见光图像基于反射特性生成,如图6b所示。图6c、d为医学源图像。

图6  多模态源图像

Fig.6  Multi-modal source image

图7图8图6的融合图像。与图4中单模态的源图像相比,多模态源图像包含着更多的互补信息和一些冗余信息。因此,差图包含的信息越少,对应的融合图像越好,融合图像中包含的转移信息则越多。可以发现,几乎每种图像融合算法在多聚焦源图像上的融合效果都优于其他种类的源图像。这种现象可以归因于多聚焦源图像具有更多的相似性和冗余信息,易于融合在一起。与之相反,医学图像、红外和可见光图像产生于不同的传感器,具有更多的互补信息,需要更精确的算法。

图7  红外和可见光融合图像与差图

Fig.7  Infrared and visible fused images and

difference images

图8  医学融合图像与差图

Fig.8  Medical fused images and difference images

由于一些算法如CNN和MWGF是针对多聚焦源图像提出的,因此由它们得到的融合图像的视觉效果较差。GAN算法是针对红外和可见光图像融合而设计的,得到的融合图像更适合人类视觉系统。对于如图8所示的医学图像融合,基于变换域的算法(如DWT、NSST‒max)得到的融合图像的视觉效果更好。通过对比差图可以发现,MST(NSCT)‒SR、NSST‒max融合图像的信息是不完整的。

23图7图8中融合图像的客观评价指标值。结果表明,所提出的算法具有更好的融合结果。

表2  红外和可见光图像融合图像的客观指标值
Tab 2  Objective index value of infrared and visible fused images
算法QMIQNCIEQGQPQYQCB
GFF 0.285 5 0.804 8 0.419 6 0.326 0 0.818 5 0.571 9
SR 0.230 1 0.803 7 0.336 6 0.137 8 0.713 7 0.511 7
DWT 0.206 8 0.803 0 0.374 9 0.190 3 0.735 5 0.523 4
CNN 0.333 6 0.805 1 0.433 7 0.330 4 0.865 6 0.586 1
MWGF 0.431 6 0.809 6 0.482 2 0.432 0 0.901 1 0.717 6
MST(NSCT)‒SR 0.272 8 0.804 8 0.423 4 0.260 7 0.809 7 0.641 3
NSST‒max 0.212 8 0.803 2 0.396 2 0.217 7 0.755 7 0.563 4
GAN 0.424 1 0.802 3 0.398 9 0.413 7 0.878 2 0.691 1
本算法 0.526 5 0.813 6 0.490 9 0.461 8 0.915 3 0.745 4
表3  医学图像融合图像的客观指标值
Tab 3  Objective index value of medical fused images
算法QMIQNCIEQGQPQYQCB
GFF 0.510 9 0.807 3 0.474 9 0.420 8 0.683 6 0.339 5
SR 0.532 2 0.808 0 0.469 6 0.390 5 0.709 3 0.351 6
DWT 0.482 7 0.806 4 0.466 4 0.422 5 0.696 8 0.354 4
CNN 0.694 8 0.803 1 0.119 0 0.340 1 0.841 5 0.500 6
MWGF 0.456 3 0.804 5 0.332 0 0.418 6 0.645 8 0.489 4
MST(NSCT)‒SR 0.413 2 0.805 1 0.437 1 0.384 4 0.652 5 0.370 3
NSST‒max 0.466 9 0.806 4 0.459 3 0.417 7 0.688 9 0.353 1
GAN 0.452 4 0.802 5 0.377 5 0.478 4 0.594 1 0.426 6
本算法 0.696 6 0.813 8 0.483 7 0.526 2 0.859 6 0.537 1

4 结语

结合多尺度分解和形态学成分分析,提出了一种多形态学成分分析算法来实现图像融合。综合考虑源图像中同时存在的冗余和互补信息以及不同子图像的信息特征,还提出了一种基于联合稀疏表示和方向特征的融合规则。对单模态和多模态源图像的一系列对比结果表明,所提出的算法对于多样化的图像融合是有效的,可以实现更完整的信息转移并得到更适合人类视觉系统的融合图像。由于采用了包括形态学成分分析和联合稀疏表示的稀疏表示,相比传统的图像融合算法,需要大量的字典训练和稀疏编码计算,算法整体复杂度偏高,在一定程度上影响了算法的实时性。在未来的研究中,计划对字典获取方式和稀疏编码进行进一步的改进与优化。

作者贡献声明

马晓乐:论文初稿撰写,调试相关实验。

王志海:校核论文,参与论文的修改。

胡绍海:指导论文思路和框图,参与论文的修改。

参考文献

1

VIVONE G. Multispectral and hyperspectral image fusion in remote sensing: a survey[J]. Information Fusion202389405. [百度学术] 

2

LI J WLIU J YZHOU S Het al. Infrared and visible image fusion based on residual dense network and gradient loss[J]. Infrared Physics & Technology2023128104486. [百度学术] 

3

ZHANG HXU HTIAN Xet al. Image fusion meets deep learning: a survey and perspective[J]. Information Fusion202176323. [百度学术] 

4

PAJARES GDE LA CRUZ J M. A wavelet-based image fusion tutorial[J]. Pattern Recognition2004379): 1855. [百度学术] 

5

YANG BLI S T. Pixel-level image fusion with simultaneous orthogonal matching pursuit[J]. Information Fusion20121310. [百度学术] 

6

GUO C XFAN D DJIANG Z Xet al. MDFN: mask deep fusion network for visible and infrared image fusion without reference ground-truth[J]. Expert Systems with Applications2023211118631. [百度学术] 

7

LI W SZHANG YWANG G Fet al. DFENet: a dual-branch feature enhanced network integrating transformers and convolutional feature learning for multimodal medical image fusion[J]. Biomedical Signal Processing and Control202380104402. [百度学术] 

8

WANG Y CXU SLIU J Met al. MFIF-GAN: a new generative adversarial network for multi-focus image fusion[J]. Signal Processing: Image Communication202196116295. [百度学术] 

9

LIU YCHEN XPENG Het al. Multi-focus image fusion with a deep convolutional neural network[J]. Information Fusion201736191. [百度学术] 

10

MA J YYU WLIANG P Wet al. FusionGAN: a generative adversarial network for infrared and visible image fusion[J]. Information Fusion20194811. [百度学术] 

11

DONOHO D L. Compressed sensing[J]. IEEE Transactions on Information Theory2006524): 1289. [百度学术] 

12

YAN H BLI Z M. Infrared and visual image fusion based on multi-scale feature decomposition[J]. Optik2019203163900. [百度学术] 

13

KONG W WMIAO Q GLEI Y. Multimodal sensor medical image fusion based on local difference in non-subsampled domain[J]. IEEE Transactions on Instrumentation and Measurement2019684): 938. [百度学术] 

14

ARIF MWANG G J. Fast curvelet transform through genetic algorithm for multimodal medical image fusion[J]. Soft Computing2020242): 1815. [百度学术] 

15

WEI QBIOUCAS D JDOBIGEON Net al. Hyperspectral and multispectral image fusion based on a sparse representation[J]. IEEE Transactions on Geoscience & Remote Sensing2015537): 3658. [百度学术] 

16

TAN JZHANG T PZHAO L Cet al. Multi-focus image fusion with geometrical sparse representation[J]. Signal Processing: Image Communication202192116130. [百度学术] 

17

JIANG YWANG M H. Image fusion with morphological component analysis[J]. Information Fusion201418107. [百度学术] 

18

LIU YCHEN XWARD R Ket al. Medical image fusion via convolutional sparsity based morphological component analysis[J]. IEEE Signal Processing Letters2019263): 485. [百度学术] 

19

LIU Z DCHAI YYIN H Pet al. A novel multi-focus image fusion approach based on image decomposition[J]. Information Fusion201735102. [百度学术] 

20

ZHANG Q HFU Y LLI H Fet al. Dictionary learning method for joint sparse representation-based image fusion[J]. Optical Engineering2013525): 7006. [百度学术] 

21

LI S TKANG X DHU J W. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing2013222864. [百度学术] 

22

ZHU Z QYIN H PCHAI Yet al. A novel multi-modality image fusion method based on image decomposition and sparse representation[J]. Information Sciences2018432516. [百度学术] 

23

ZHOU Z QLI SWANG B. Multi-scale weighted gradient-based fusion for multi-focus images[J]. Information Fusion20142060. [百度学术] 

24

LIU YLIU S PWANG Z F. A general framework for image fusion based on multi-scale transform and sparse representation[J]. Information Fusion201524147. [百度学术] 

25

YIN MLIU WZHAO Xet al. A novel image fusion algorithm based on nonsubsampled shearlet transform[J]. Optik20141252274. [百度学术] 

26

LIU ZBLASCH EXUE Z Yet al. Objective assessment of multiresolution image fusion algorithms for context enhancement in night vision: a comparative study[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence20113494. [百度学术]