针对异源无人机影像视角、分辨率、灰度值差异大的特点,提出一种基于语义深度局部特征的无人机热红外与可见光影像匹配方法。该方法首先利用全卷积神经网络和注意力机制提取具有语义信息的深度局部特征;其次以多通道特征图作为描述符进...针对异源无人机影像视角、分辨率、灰度值差异大的特点,提出一种基于语义深度局部特征的无人机热红外与可见光影像匹配方法。该方法首先利用全卷积神经网络和注意力机制提取具有语义信息的深度局部特征;其次以多通道特征图作为描述符进行kd-tree匹配;最后将向量场一致性VFC(Vector Field Consensus)和随机采样一致性RANSAC(Random Sample Consensus)相结合(VFC-RANSAC)进行误匹配剔除,从而实现无人机热红外与可见光影像的稳健匹配。匹配试验表明,与SIFT、KAZE等提取的人工特征相比,深度特征可以抵抗更大的影像几何和辐射差异;与RANSAC相比,VFC-RANSAC能够更有效地剔除外点,获得更高的正确匹配率和匹配精度。展开更多
文摘针对异源无人机影像视角、分辨率、灰度值差异大的特点,提出一种基于语义深度局部特征的无人机热红外与可见光影像匹配方法。该方法首先利用全卷积神经网络和注意力机制提取具有语义信息的深度局部特征;其次以多通道特征图作为描述符进行kd-tree匹配;最后将向量场一致性VFC(Vector Field Consensus)和随机采样一致性RANSAC(Random Sample Consensus)相结合(VFC-RANSAC)进行误匹配剔除,从而实现无人机热红外与可见光影像的稳健匹配。匹配试验表明,与SIFT、KAZE等提取的人工特征相比,深度特征可以抵抗更大的影像几何和辐射差异;与RANSAC相比,VFC-RANSAC能够更有效地剔除外点,获得更高的正确匹配率和匹配精度。