针对不同场景图像下词袋(bag of words,BoW)模型的图像分类准确率较低的问题,提出了一种基于空间金字塔BoW模型的图像分类方法。该方法通过尺度不变特征变换(scale-invariant feature transform,SIFT)算法提取原始图像像素特征点作为视...针对不同场景图像下词袋(bag of words,BoW)模型的图像分类准确率较低的问题,提出了一种基于空间金字塔BoW模型的图像分类方法。该方法通过尺度不变特征变换(scale-invariant feature transform,SIFT)算法提取原始图像像素特征点作为视觉特征,对相似视觉特征进行聚类形成视觉词袋,并采用空间金字塔方法对视觉词袋进行划分,构建空间金字塔的BoW模型,通过支持向量机分类器对分层后的视觉词袋进行图像分类。分别使用BoW模型和空间金字塔的BoW模型分类方法对网络图像数据库进行分类实验对比,结果表明,空间金字塔BoW模型能有效提高BoW模型的图像分类准确率。展开更多
传统词袋(bag of words,BoW)模型在构造视觉词典时一般采用k-means聚类方法实现,但k-means聚类方法的性能在很大程度上依赖于初始点的选择,从而导致生成的视觉词典鲁棒性较差,此外,每次迭代都要计算数据点与中心点的距离,计算复杂度高...传统词袋(bag of words,BoW)模型在构造视觉词典时一般采用k-means聚类方法实现,但k-means聚类方法的性能在很大程度上依赖于初始点的选择,从而导致生成的视觉词典鲁棒性较差,此外,每次迭代都要计算数据点与中心点的距离,计算复杂度高。针对上述问题,提出了一种改进的k-means聚类视觉词典构造方法,该方法首先对初始值的选取进行了优化,克服了随机选取初始值对聚类性能的影响,其次基于三角形不等式对计算进行了简化,使生成的视觉词典更加稳定,计算复杂度更低,最后引入权值分布对图像进行基于视觉词典的表示,并将基于改进的视觉词典的词袋模型应用于图像分类,提高了分类性能。通过在Caltech 101和Caltech 256两个数据库进行实验,验证了本文方法的有效性,并分析了词典库大小对分类性能的影响。从实验结果可以看出,采用本文方法所得到的分类正确率提高了5%~8%。展开更多
针对传统BOW(Bag of Words)模型用于场景图像分类时的不足,通过引入关联规则的MFI(Maximum Frequent Itemsets)和Topology模型对其进行改进。为了突出同类图像的视觉单词,提取同类图像的MFI后,对其中频繁出现的视觉单词进行加权处理,增...针对传统BOW(Bag of Words)模型用于场景图像分类时的不足,通过引入关联规则的MFI(Maximum Frequent Itemsets)和Topology模型对其进行改进。为了突出同类图像的视觉单词,提取同类图像的MFI后,对其中频繁出现的视觉单词进行加权处理,增强同类图像的共有特征。同时,为了提高视觉词典的生成效率,利用Topology模型对原始模型进行分工并行处理。通过COREL和Caltech-256图像库的实验,证明改进后的模型提高了对场景图像的分类性能,并验证了其Topology模型的有效性和可行性。展开更多
文摘针对不同场景图像下词袋(bag of words,BoW)模型的图像分类准确率较低的问题,提出了一种基于空间金字塔BoW模型的图像分类方法。该方法通过尺度不变特征变换(scale-invariant feature transform,SIFT)算法提取原始图像像素特征点作为视觉特征,对相似视觉特征进行聚类形成视觉词袋,并采用空间金字塔方法对视觉词袋进行划分,构建空间金字塔的BoW模型,通过支持向量机分类器对分层后的视觉词袋进行图像分类。分别使用BoW模型和空间金字塔的BoW模型分类方法对网络图像数据库进行分类实验对比,结果表明,空间金字塔BoW模型能有效提高BoW模型的图像分类准确率。
文摘传统词袋(bag of words,BoW)模型在构造视觉词典时一般采用k-means聚类方法实现,但k-means聚类方法的性能在很大程度上依赖于初始点的选择,从而导致生成的视觉词典鲁棒性较差,此外,每次迭代都要计算数据点与中心点的距离,计算复杂度高。针对上述问题,提出了一种改进的k-means聚类视觉词典构造方法,该方法首先对初始值的选取进行了优化,克服了随机选取初始值对聚类性能的影响,其次基于三角形不等式对计算进行了简化,使生成的视觉词典更加稳定,计算复杂度更低,最后引入权值分布对图像进行基于视觉词典的表示,并将基于改进的视觉词典的词袋模型应用于图像分类,提高了分类性能。通过在Caltech 101和Caltech 256两个数据库进行实验,验证了本文方法的有效性,并分析了词典库大小对分类性能的影响。从实验结果可以看出,采用本文方法所得到的分类正确率提高了5%~8%。
文摘针对传统BOW(Bag of Words)模型用于场景图像分类时的不足,通过引入关联规则的MFI(Maximum Frequent Itemsets)和Topology模型对其进行改进。为了突出同类图像的视觉单词,提取同类图像的MFI后,对其中频繁出现的视觉单词进行加权处理,增强同类图像的共有特征。同时,为了提高视觉词典的生成效率,利用Topology模型对原始模型进行分工并行处理。通过COREL和Caltech-256图像库的实验,证明改进后的模型提高了对场景图像的分类性能,并验证了其Topology模型的有效性和可行性。