This project is for personal study and under development, please click 'watch' or 'star' my repo and check back later if you are interested in it.
2023.2.26 Update: This project was initially set up for polarization image fusion, and now it has been extended to infrared image fusion. Thus, it was renamed as multi-modal image fusion.
-
配置:
pip install -r requirements.txt
-
训练:
python train.py --data roadscene
-
测试:
python test.py --data tno --ckpt 2023-02-26_23-15
-
评估:
python eval.py --data tno --ckpt 2023-02-26_23-15
主要任务:实现多模态图像融合,包括偏振与强度图像融合,以及红外与可见光图像融合。
本项目最初基于无监督的 PFNet 算法构建模型。
另外,还包括以下算法模型:
-
红外:DeepFuse, DenseFuse, VIFNet, DBNet (Dual-Branch), SEDRFuse, NestFuse, RFN-Nest, UNFusion, Res2Fusion, MAFusion
-
通用:IFCNN, DIFNet, PMGI
本项目基于自建数据集训练偏振融合模型。
偏振数据集:
-
训练集图片数:200 对
-
测试集图片数:32 对
-
图片分辨率:1224x1024
-
图片宽高比:1.2:1
另外,使用 RoadScene 数据集训练红外融合模型。
红外数据集:
-
训练集图片数:200 对
-
测试集图片数:21 对
本项目基于定性和定量评价算法性能。
-
统计量:标准差(SD)、平均梯度(AG)、空间频率(SF)、均方误差(MSE)、峰值信噪比(PSNR)、相关系数(CC)、差异相关性总和(SCD)
-
信息量:信息熵(EN)、交叉熵(CE)、互信息(MI)
-
视觉感知:融合性能(Qabf)、融合伪影(Nabf)、融合损失(Labf)、结构相似度(SSIM)、多尺度结构相似度(MS-SSIM)、融合视觉信息保真度(VIFF)