期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
改进的遗传粒子群混合优化算法 被引量:23
1
作者 陈璐璐 邱建林 +3 位作者 陈燕云 陆鹏程 赵伟康 《计算机工程与设计》 北大核心 2017年第2期395-399,共5页
为解决遗传算法计算时间长和粒子群算法易陷入局部极值的问题,提出一种基于实数编码的改进的遗传算法与粒子群算法混合的优化算法。改进遗传算法中的选择算子,保留适应度值较好的个体,重新组成新的种群,由粒子群算法更新速度和位置,对... 为解决遗传算法计算时间长和粒子群算法易陷入局部极值的问题,提出一种基于实数编码的改进的遗传算法与粒子群算法混合的优化算法。改进遗传算法中的选择算子,保留适应度值较好的个体,重新组成新的种群,由粒子群算法更新速度和位置,对个体进行进一步的成熟。交叉算子采取精英竞争策略,选取适当个体进行交叉,剩余个体再次通过PSO算法更新速度和位置,将粒子群思想引入变异算子。通过对4个函数的优化,对此算法进行测试,并研究比较其它算法,测试结果表明,该算法在收敛性、运算速度和优化能力方面具有优越性。 展开更多
关键词 选择算子 交叉算子 变异算子 遗传算法 粒子群算法 混合算法
下载PDF
基于AdaBoost的类不平衡学习算法 被引量:11
2
作者 邱建林 +2 位作者 陆鹏程 陈璐璐 赵伟康 《计算机应用研究》 CSCD 北大核心 2017年第11期3229-3232,3254,共5页
处理类不平衡数据时,少数类的边界实例非常容易被错分。为了降低类不平衡对分类器性能的影响,提出了自适应边界采样算法(AB-SMOTE)。AB-SMOTE算法对少数类的边界样本进行自适应采样,提高了数据集的平衡度和有效性;同时将AB-SMOTE算法与... 处理类不平衡数据时,少数类的边界实例非常容易被错分。为了降低类不平衡对分类器性能的影响,提出了自适应边界采样算法(AB-SMOTE)。AB-SMOTE算法对少数类的边界样本进行自适应采样,提高了数据集的平衡度和有效性;同时将AB-SMOTE算法与数据清理技术融合,形成基于Ada Boost的集成算法ABTAdaBoost。ABTAda Boost算法主要包括三个阶段:对训练数据集采用AB-SMOTE算法,降低数据集的类不平衡度;使用Tomek links数据清理技术清除数据集中的噪声和抽样方法产生的重叠样例,有效提高数据的可用性;使用Ada Boost集成算法生成一个基于N个弱分类器的集成分类器。实验分别以J48决策树和朴素贝叶斯作为基分类器,在12个UCI数据集上的实验结果表明,ABTAda Boost算法的预测性能优于其他几种算法。 展开更多
关键词 机器学习 类不平衡学习 集成学习 SMOTE 数据清理技术
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部