光学遥感成像分辨率高、幅宽大,相似地物多,在图像配准中极易产生特征点误匹配。现有深度网络配准方法直接将特征图中的极大值点作为图像配准的特征点,特征点提取与匹配的准确性差,导致图像精度低。针对该问题,文章提出新方法,将高斯差...光学遥感成像分辨率高、幅宽大,相似地物多,在图像配准中极易产生特征点误匹配。现有深度网络配准方法直接将特征图中的极大值点作为图像配准的特征点,特征点提取与匹配的准确性差,导致图像精度低。针对该问题,文章提出新方法,将高斯差分图像(Difference of Gaussian,DoG)与Visual Geometry Group(VGG)网络组合起来,构成一个新网络,即Difference of Gaussian with VGG(DVGG)网络;然后从高斯差分图像中提取极大值点作为配准的特征点,将DVGG网络提取的特征图作为特征点的特征描述,用于计算两幅图像特征点匹配的相似度。最后,利用Google Earth软件获取的遥感影像,进行了实验验证,并与尺度不变特征变换(Scale Invariant Feature Transform,SIFT)和加速稳健特征(Speeded Up Robust Features,SURF)方法进行了对比。实验结果表明:新方法的图像配准精度高,优于对比方法。展开更多
文摘光学遥感成像分辨率高、幅宽大,相似地物多,在图像配准中极易产生特征点误匹配。现有深度网络配准方法直接将特征图中的极大值点作为图像配准的特征点,特征点提取与匹配的准确性差,导致图像精度低。针对该问题,文章提出新方法,将高斯差分图像(Difference of Gaussian,DoG)与Visual Geometry Group(VGG)网络组合起来,构成一个新网络,即Difference of Gaussian with VGG(DVGG)网络;然后从高斯差分图像中提取极大值点作为配准的特征点,将DVGG网络提取的特征图作为特征点的特征描述,用于计算两幅图像特征点匹配的相似度。最后,利用Google Earth软件获取的遥感影像,进行了实验验证,并与尺度不变特征变换(Scale Invariant Feature Transform,SIFT)和加速稳健特征(Speeded Up Robust Features,SURF)方法进行了对比。实验结果表明:新方法的图像配准精度高,优于对比方法。