期刊文献+
共找到4篇文章
< 1 >
每页显示 20 50 100
连续学习研究进展 被引量:10
1
作者 韩亚楠 刘建伟 罗雄麟 《计算机研究与发展》 EI CSCD 北大核心 2022年第6期1213-1239,共27页
近年来,随着信息技术的不断发展,各种数据呈现爆炸式的增长,传统的机器学习算法只有当测试数据与训练数据分布类似时,学习算法才能取得较好的性能,换句话说,它们不能在动态环境中连续自适应地学习,然而,这种自适应学习的能力却是任何智... 近年来,随着信息技术的不断发展,各种数据呈现爆炸式的增长,传统的机器学习算法只有当测试数据与训练数据分布类似时,学习算法才能取得较好的性能,换句话说,它们不能在动态环境中连续自适应地学习,然而,这种自适应学习的能力却是任何智能系统都具备的特性.深度神经网络在许多应用中显示出最好的学习能力,然而,使用该方法对数据进行增量更新学习时,会面临灾难性的干扰或遗忘问题,导致模型在学习新任务之后忘记如何解决旧任务.连续学习(continual learning,CL)的研究使这一问题得到缓解.连续学习是模拟大脑学习的过程,按照一定的顺序对连续非独立同分布的(independently and identically distributed,IID)流数据进行学习,进而根据任务的执行结果对模型进行增量式更新.连续学习的意义在于高效地转化和利用已经学过的知识来完成新任务的学习,并且能够极大程度地降低遗忘带来的问题.连续学习研究对智能计算系统自适应地适应环境改变具有重要的意义.基于此,系统综述了连续学习的研究进展,首先概述了连续学习的定义,介绍了无遗忘学习、弹性权重整合和梯度情景记忆3种典型的连续学习模型,并对连续学习存在的关键问题及解决方法进行了介绍,之后又对基于正则化、动态结构和记忆回放互补学习系统的3类连续学习模型进行了分类和阐述,并在最后指明了连续学习进一步研究中需要解决的问题以及未来可能的发展方向. 展开更多
关键词 连续学习 灾难性遗忘 增量学习 正则化 动态结构 记忆回放
下载PDF
基于知识架构的持续学习情感分类方法 被引量:1
2
作者 王松 买日旦·吾守尔 +1 位作者 古兰拜尔·吐尔洪 薛源 《计算机工程》 CAS CSCD 北大核心 2023年第2期112-118,共7页
当情感分类模型依次学习多个领域的情感分类任务时,从新任务中学到的参数会直接修改模型原有参数,由于缺少对原有参数的保护机制,降低了模型在旧任务上的分类准确率。为缓解灾难遗忘现象对模型性能的影响,并增加任务间的知识迁移,提出... 当情感分类模型依次学习多个领域的情感分类任务时,从新任务中学到的参数会直接修改模型原有参数,由于缺少对原有参数的保护机制,降低了模型在旧任务上的分类准确率。为缓解灾难遗忘现象对模型性能的影响,并增加任务间的知识迁移,提出一种用于中文情感分类的基于知识架构的持续学习方法。在Transformer编码层中,采用任务自注意力机制为每个任务单独设置注意力变换矩阵,通过区分任务特有的注意力参数实现知识保留。在TextCNN的全连接层中,利用任务门控注意力(HAT)机制控制每个神经元的开闭,为每个任务训练特定的网络结构,仅激活对任务重要的神经元加强知识挖掘,提升分类效率与准确率。在JD21中文数据集上的实验结果表明,该方法的Last ACC和负类F1值相比于基于HAT的持续学习方法分别提升了0.37和0.09个百分点,具有更高的分类准确率,并且有效缓解了灾难遗忘现象。 展开更多
关键词 持续学习 知识架构 情感分类 知识保留网络 知识挖掘网络
下载PDF
一种基于随机权神经网络的类增量学习与记忆融合方法
3
作者 李德鹏 曾志刚 《自动化学报》 EI CAS CSCD 北大核心 2023年第12期2467-2480,共14页
连续学习(Continual learning,CL)多个任务的能力对于通用人工智能的发展至关重要.现有人工神经网络(Artificial neural networks,ANNs)在单一任务上具有出色表现,但在开放环境中依次面对不同任务时非常容易发生灾难性遗忘现象,即联结... 连续学习(Continual learning,CL)多个任务的能力对于通用人工智能的发展至关重要.现有人工神经网络(Artificial neural networks,ANNs)在单一任务上具有出色表现,但在开放环境中依次面对不同任务时非常容易发生灾难性遗忘现象,即联结主义模型在学习新任务时会迅速地忘记旧任务.为了解决这个问题,将随机权神经网络(Random weight neural networks,RWNNs)与生物大脑的相关工作机制联系起来,提出一种新的再可塑性启发的随机化网络(Metaplasticity-inspired randomized network,MRNet)用于类增量学习(Class incremental learning,Class-IL)场景,使得单一模型在不访问旧任务数据的情况下能够从未知的任务序列中学习与记忆融合.首先,以前馈方式构造具有解析解的通用连续学习框架,用于有效兼容新任务中出现的新类别;然后,基于突触可塑性设计具备记忆功能的权值重要性矩阵,自适应地调整网络参数以避免发生遗忘;最后,所提方法的有效性和高效性通过5个评价指标、5个基准任务序列和10个比较方法在类增量学习场景中得到验证. 展开更多
关键词 连续学习 灾难性遗忘 随机权神经网络 再可塑性启发
下载PDF
脑启发式持续学习方法:技术、应用与发展 被引量:2
4
作者 杨静 李斌 +4 位作者 李少波 王崎 于丽娅 胡建军 袁坤 《电子与信息学报》 EI CSCD 北大核心 2022年第5期1865-1878,共14页
深度学习模型面对非独立同分布数据流时,新知识会覆盖旧知识,造成其性能大幅度下降。而持续学习(CL)技术可以从非独立同分布数据流中获取增量可用知识,不断积累新知识的同时无须从头学习,通过模仿类脑的学习与记忆机制达到类人智能。该... 深度学习模型面对非独立同分布数据流时,新知识会覆盖旧知识,造成其性能大幅度下降。而持续学习(CL)技术可以从非独立同分布数据流中获取增量可用知识,不断积累新知识的同时无须从头学习,通过模仿类脑的学习与记忆机制达到类人智能。该文针对脑启发式持续学习方法进行综述。首先,回顾持续学习发展历程;其次,从类脑持续学习机制的角度,将持续学习研究方法分为经典方法与脑启发方法两类,对重放、正则化与稀疏化3种经典持续学习方法的研究现状进行总结,分析了其所面临的困境。为此,针对更接近类脑持续学习能力的突触、双系统、睡眠及模块化4类脑启发方法进行阐述分析与对比总结;最后,概述脑启发式持续学习的应用现状,并探讨了在现有技术条件下实现脑启发式持续学习所面临的挑战及其未来发展方向。 展开更多
关键词 持续学习 脑启发 灾难性遗忘 类脑智能 睡眠启发
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部