期刊文献+
共找到2篇文章
< 1 >
每页显示 20 50 100
一种结合Focal Loss的不平衡数据集提升树分类算法 被引量:4
1
作者 朱翌民 郭茹燕 +2 位作者 巨家骥 张帅 张维 《软件导刊》 2021年第11期65-69,共5页
针对不平衡数据集分类问题中存在的难易样本不平衡问题,提出在提升树算法的基础上结合Focal Loss的不平衡数据集分类算法。分别在HTRU3、Yeast3、Test的不平衡数据集上对该算法与Borderline-SMOTE结合梯度提升树算法进行比较。实验结果... 针对不平衡数据集分类问题中存在的难易样本不平衡问题,提出在提升树算法的基础上结合Focal Loss的不平衡数据集分类算法。分别在HTRU3、Yeast3、Test的不平衡数据集上对该算法与Borderline-SMOTE结合梯度提升树算法进行比较。实验结果表明,在HTRU2数据集上,该算法F1-score最高为0.970,而Borderline-SMOTE结合梯度提升树算法为0.972,虽然分类性能没有得到明显提升,但该算法仅需13次迭代便可收敛,而传统梯度提升树算法则需20次以上迭代才能收敛。在提升树模型中引入Focal Loss损失函数可有效提升模型收敛速度,且在一定程度上保持了模型分类性能。 展开更多
关键词 不平衡数据集 样本 样本 Focal Loss 梯度提升算法
下载PDF
基于优化损失函数的YOLOv2目标检测器 被引量:4
2
作者 杨海龙 田莹 王澧冰 《辽宁科技大学学报》 CAS 2020年第1期52-57,71,共7页
针对基于深度学习的单阶段目标检测器在训练过程中的样本不均衡问题,设计了一种新型的基于Softmax分类的动态调制交叉熵损失函数。此损失函数能够高效地降低训练过程中的易分负样本的损失权重,相应地提高困难样本的损失权重,从而可以使... 针对基于深度学习的单阶段目标检测器在训练过程中的样本不均衡问题,设计了一种新型的基于Softmax分类的动态调制交叉熵损失函数。此损失函数能够高效地降低训练过程中的易分负样本的损失权重,相应地提高困难样本的损失权重,从而可以使模型的整个训练过程变得高效。将基于Softmax分类的动态调制交叉熵损失函数代替标准的交叉熵损失函数用于YOLOv2训练中关于类别预测的损失计算,能够一定程度上提升YOLOv2的检测准确率。 展开更多
关键词 检测器 动态调制交叉熵 样本 困难样本
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部