现有的一分类支持向量机算法基于优化最小间隔的思想,只考虑了样本靠近空间原点一侧的噪声,对噪声信息较为敏感。针对该问题,通过优化间隔分布思想,同时考虑样本靠近空间原点和远离空间原点两侧的噪声,提高一分类支持向量机算法的抗噪...现有的一分类支持向量机算法基于优化最小间隔的思想,只考虑了样本靠近空间原点一侧的噪声,对噪声信息较为敏感。针对该问题,通过优化间隔分布思想,同时考虑样本靠近空间原点和远离空间原点两侧的噪声,提高一分类支持向量机算法的抗噪声能力。为此,提出了一种基于最优间隔分布的一分类学习方法(one-class optimal margin distribution machine,OCODM),该方法通过最大化间隔的均值和最小化间隔方差的方式来优化间隔分布。实验结果表明,相比于现有的一分类支持向量机算法,该方法具有更好的鲁棒性,是现有一分类支持向量机方法的有益补充,能够增强现有方法的抗噪声能力。展开更多
偏标记学习是一种重要的弱监督学习框架。在偏标记学习中,每个实例与一组候选标记相关联,它的真实标记隐藏在候选标记集合中,且在学习过程中不可获知。为了消除候选标记对学习过程的影响,提出了一种融合实例语义差别最大化和流型学习的...偏标记学习是一种重要的弱监督学习框架。在偏标记学习中,每个实例与一组候选标记相关联,它的真实标记隐藏在候选标记集合中,且在学习过程中不可获知。为了消除候选标记对学习过程的影响,提出了一种融合实例语义差别最大化和流型学习的偏标记学习方法(partial label learning by semantic difference and manifold learning, PL-SDML)。该方法是一个两阶段的方法:在训练阶段,基于实例的语义差别最大化准则和流型学习方法为训练实例生成标记置信度;在预测阶段,使用基于最近邻投票的方法为未知实例预测标记类别。在四组人工改造的UCI数据集中,在平均70%的情况下优于其他对比算法。在四组真实偏标记数据集中,相比其他对比算法,取得了0.3%~13.8%的性能提升。展开更多
文摘现有的一分类支持向量机算法基于优化最小间隔的思想,只考虑了样本靠近空间原点一侧的噪声,对噪声信息较为敏感。针对该问题,通过优化间隔分布思想,同时考虑样本靠近空间原点和远离空间原点两侧的噪声,提高一分类支持向量机算法的抗噪声能力。为此,提出了一种基于最优间隔分布的一分类学习方法(one-class optimal margin distribution machine,OCODM),该方法通过最大化间隔的均值和最小化间隔方差的方式来优化间隔分布。实验结果表明,相比于现有的一分类支持向量机算法,该方法具有更好的鲁棒性,是现有一分类支持向量机方法的有益补充,能够增强现有方法的抗噪声能力。
文摘偏标记学习是一种重要的弱监督学习框架。在偏标记学习中,每个实例与一组候选标记相关联,它的真实标记隐藏在候选标记集合中,且在学习过程中不可获知。为了消除候选标记对学习过程的影响,提出了一种融合实例语义差别最大化和流型学习的偏标记学习方法(partial label learning by semantic difference and manifold learning, PL-SDML)。该方法是一个两阶段的方法:在训练阶段,基于实例的语义差别最大化准则和流型学习方法为训练实例生成标记置信度;在预测阶段,使用基于最近邻投票的方法为未知实例预测标记类别。在四组人工改造的UCI数据集中,在平均70%的情况下优于其他对比算法。在四组真实偏标记数据集中,相比其他对比算法,取得了0.3%~13.8%的性能提升。