期刊文献+
共找到9篇文章
< 1 >
每页显示 20 50 100
一种SVM验证码识别算法 被引量:18
1
作者 殷光 陶亮 《计算机工程与应用》 CSCD 北大核心 2011年第18期188-190,194,共4页
设计验证码的主要目的是区分人类和计算机,用来防止网络机器人的一些恶意行为。验证码的出现也催生了一批新工种,电子商务的发展迫切需要一种推广方式来推销他们的商品,残障人士上网问题也需要迫切关注,因此许多人开始研究网络机器人技... 设计验证码的主要目的是区分人类和计算机,用来防止网络机器人的一些恶意行为。验证码的出现也催生了一批新工种,电子商务的发展迫切需要一种推广方式来推销他们的商品,残障人士上网问题也需要迫切关注,因此许多人开始研究网络机器人技术,用来实现邮箱自动注册、群发信息、自动灌水、自动登录等功能。目前,各种类型网站系统都利用验证码阻止网络机器人入侵,从而验证码识别技术成为研究热点。基于SVM技术对图像验证码进行识别,取得了良好的效果。 展开更多
关键词 支持向量机 序贯最小化算法 选择工作集 核函数 多类分类 验证码识别
下载PDF
A Fast Algorithm for Training Large Scale Support Vector Machines
2
作者 Mayowa Kassim Aregbesola Igor Griva 《Journal of Computer and Communications》 2022年第12期1-15,共15页
The manuscript presents an augmented Lagrangian—fast projected gradient method (ALFPGM) with an improved scheme of working set selection, pWSS, a decomposition based algorithm for training support vector classificati... The manuscript presents an augmented Lagrangian—fast projected gradient method (ALFPGM) with an improved scheme of working set selection, pWSS, a decomposition based algorithm for training support vector classification machines (SVM). The manuscript describes the ALFPGM algorithm, provides numerical results for training SVM on large data sets, and compares the training times of ALFPGM and Sequential Minimal Minimization algorithms (SMO) from Scikit-learn library. The numerical results demonstrate that ALFPGM with the improved working selection scheme is capable of training SVM with tens of thousands of training examples in a fraction of the training time of some widely adopted SVM tools. 展开更多
关键词 SVM Machine Learning Support Vector Machines FISTA Fast Projected Gradient Augmented Lagrangian working set selection DECOMPOSITION
下载PDF
一种改进的支持向量机学习算法 被引量:1
3
作者 吴义国 黄彪 +2 位作者 黎超 张磊 魏星 《现代计算机》 2011年第9期12-15,共4页
分析支持向量机的几种常用的训练方法,在这个基础上提出一种改进的支持向量机学习方法。该方法将违反KKT条件程度最厉害的样本提取出来,然后缓存这些样本,作为工作集的选择范围,而且根据训练时缓存的特点,在缓存的替换上给出一种新的方... 分析支持向量机的几种常用的训练方法,在这个基础上提出一种改进的支持向量机学习方法。该方法将违反KKT条件程度最厉害的样本提取出来,然后缓存这些样本,作为工作集的选择范围,而且根据训练时缓存的特点,在缓存的替换上给出一种新的方法。该方法提高核缓存的命中率,减少工作集选择的代价,从而减少训练时间。实验表明,该方法能够很好地提高支持向量机的训练速度。 展开更多
关键词 支持向量机 核缓存 工作集选择
下载PDF
HSMC-SVM的二次逼近快速训练算法 被引量:2
4
作者 徐图 罗瑜 何大可 《电子与信息学报》 EI CSCD 北大核心 2008年第11期2746-2749,共4页
HSMC-SVM是一种直接型高速多类支持向量机,适合用于类别较多的分类场合,但由于SMO算法采用经验方法选择工作集,使得在用SMO算法训练HSMC-SVM时,收敛速度较慢。为提高HSMC-SVM的收敛速度,该文提出用基于二次逼近的可行方向法来训练HSMC-S... HSMC-SVM是一种直接型高速多类支持向量机,适合用于类别较多的分类场合,但由于SMO算法采用经验方法选择工作集,使得在用SMO算法训练HSMC-SVM时,收敛速度较慢。为提高HSMC-SVM的收敛速度,该文提出用基于二次逼近的可行方向法来训练HSMC-SVM,并使用了样本缩减策略。实验表明,这种方法可以有效提高HSMC-SVM的收敛速度,其收敛速度已经超过了基于libsvm的组合多类支持向量机,完全可以用于分类类别多、样本数量大的分类场合。 展开更多
关键词 超球体多类支持向量机 SMO训练算法 工作集选择:二次逼近
下载PDF
基于预备工作集的最小序列优化算法
5
作者 陈卫民 宋晓峰 姜斌 《计算机应用研究》 CSCD 北大核心 2007年第10期37-40,共4页
为了提高支持向量机求解大规模问题的训练速度,提出了一种新的工作集选择策略——预备工作集策略:在SMO中,利用可行方向策略提取最大违反对的同时,从核缓存cache中提取违反KKT条件程度最大的一系列样本组成预备工作集,为此后历次SMO迭... 为了提高支持向量机求解大规模问题的训练速度,提出了一种新的工作集选择策略——预备工作集策略:在SMO中,利用可行方向策略提取最大违反对的同时,从核缓存cache中提取违反KKT条件程度最大的一系列样本组成预备工作集,为此后历次SMO迭代优化提供工作集。该方法提高了核缓存的命中率,减少了工作集选择的代价。理论分析和实验结果表明,预备工作集策略能够很好地胜任待优化的工作集,加快了支持向量机求解大规模问题的训练速度。 展开更多
关键词 支持向量机 预备工作集 工作集选择 核缓存
下载PDF
基于黄金工作集多维数值函数极小值算法 被引量:1
6
作者 葛华 赵靖 +2 位作者 王传安 贾丙静 李香云 《安徽科技学院学报》 2012年第6期48-51,共4页
提出一种黄金工作集的多维数值函数极值优化算法。根据工作集元素的贡献度不同并结合黄金分割法将工作集划分为黄金工作集和非黄金工作集。通过保留黄金工作集元素和置换非黄金工作集元素方法,保障工作集中的元素都是最优解,从而达到加... 提出一种黄金工作集的多维数值函数极值优化算法。根据工作集元素的贡献度不同并结合黄金分割法将工作集划分为黄金工作集和非黄金工作集。通过保留黄金工作集元素和置换非黄金工作集元素方法,保障工作集中的元素都是最优解,从而达到加速收敛实现算法的优化。通过与人工蜂群算法的进行比较,结果证明该算法在极值收敛上具有明显优势。 展开更多
关键词 工作集 黄金分割 贡献度 置换 多维数值函数
下载PDF
基于改进SMO的SVDD快速训练算法 被引量:1
7
作者 李丹阳 蔡金燕 +2 位作者 杜敏杰 朱赛 张峻宾 《中国测试》 CAS 北大核心 2015年第11期101-105,共5页
针对传统支持向量数据描述(support vector data description,SVDD)训练中存在的训练速度慢、存储核矩阵需要的空间开销大、计算量大、算法效率低等问题,提出一种基于改进序贯最小优化(SMO)算法的SVDD快速训练方法。该算法针对原有SMO... 针对传统支持向量数据描述(support vector data description,SVDD)训练中存在的训练速度慢、存储核矩阵需要的空间开销大、计算量大、算法效率低等问题,提出一种基于改进序贯最小优化(SMO)算法的SVDD快速训练方法。该算法针对原有SMO算法仅能处理单类样本的缺陷,提出一种可以处理负样本的改进方法,给出详细的计算推导过程,并针对KKT判定条件、工作集选择等关键问题进行改进。试验证明:与传统的SVDD训练算法相比,基于改进SMO算法的SVDD快速训练方法训练时间短,计算量小,分类准确度高,空间开销小,更适合于大规模数据的快速训练,具有较高的工程应用价值。 展开更多
关键词 序贯最小优化算法 快速训练 KKT条件 工作集选择 支持向量数据描述
下载PDF
序列最小优化工作集选择算法的改进
8
作者 左琳 《电子科技大学学报》 EI CAS CSCD 北大核心 2013年第3期448-452,共5页
序列最小化算法(SMO)是支持向量机重要的常用分解方法。而工作集的选择是实现序列最小优化算法的关键。通过重写KKT条件,提出了一种改进的新工作集选择方法,并相应提出最小化步骤。通过将改进的支持向量机方法应用于网络用户行为数据的... 序列最小化算法(SMO)是支持向量机重要的常用分解方法。而工作集的选择是实现序列最小优化算法的关键。通过重写KKT条件,提出了一种改进的新工作集选择方法,并相应提出最小化步骤。通过将改进的支持向量机方法应用于网络用户行为数据的分析,与现有方法进行对比测试,验证了新工作集选择方法将减少支持向量机的学习时间并加快收敛过程,改进的支持向量机方法在运行效率和准确度上都有不同程度的提高。 展开更多
关键词 改进 KKT条件 序列最小优化 支持向量机 工作集选择
下载PDF
最小二乘超球多类支持向量机 被引量:1
9
作者 徐图 《系统仿真学报》 CAS CSCD 北大核心 2009年第23期7468-7472,共5页
超球体多类支持向量机(HSMC-SVM)是一种直接型多类分类器,具有训练速度快,检测效率高的优点,但由于HSMC-SVM使用一阶范数软间隔作为目标函数的惩罚项,使得其训练精度受到一定影响,为了提高HSMC-SVM训练精度,将最小二乘法引入到HSMC-SVM... 超球体多类支持向量机(HSMC-SVM)是一种直接型多类分类器,具有训练速度快,检测效率高的优点,但由于HSMC-SVM使用一阶范数软间隔作为目标函数的惩罚项,使得其训练精度受到一定影响,为了提高HSMC-SVM训练精度,将最小二乘法引入到HSMC-SVM中,提出了最小二乘超球多类支持向量机(LSHS-MCSVM)的概念,并且分析了它的训练算法和判决规则,从而形成了完整的LSHS-MCSVM分类理论。实验表明,LSHS-MCSVM无论在训练速度上还是在泛化性能上都要优于HSMC-SVM,适合于分类类别多,样本数量大的多分类场合。 展开更多
关键词 支持向量机 多类支持向量机 SMO训练算法 工作集选择 最小二乘超球多类支持向量机
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部