期刊文献+
共找到5,672篇文章
< 1 2 250 >
每页显示 20 50 100
机器学习模型可解释性方法、应用与安全研究综述 被引量:141
1
作者 纪守领 李进锋 +1 位作者 杜天宇 李博 《计算机研究与发展》 EI CSCD 北大核心 2019年第10期2071-2096,共26页
尽管机器学习在许多领域取得了巨大的成功,但缺乏可解释性严重限制了其在现实任务尤其是安全敏感任务中的广泛应用.为了克服这一弱点,许多学者对如何提高机器学习模型可解释性进行了深入的研究,并提出了大量的解释方法以帮助用户理解模... 尽管机器学习在许多领域取得了巨大的成功,但缺乏可解释性严重限制了其在现实任务尤其是安全敏感任务中的广泛应用.为了克服这一弱点,许多学者对如何提高机器学习模型可解释性进行了深入的研究,并提出了大量的解释方法以帮助用户理解模型内部的工作机制.然而,可解释性研究还处于初级阶段,依然还有大量的科学问题尚待解决.并且,不同的学者解决问题的角度不同,对可解释性赋予的含义也不同,所提出的解释方法也各有侧重.迄今为止,学术界对模型可解释性仍缺乏统一的认识,可解释性研究的体系结构尚不明确.在综述中,回顾了机器学习中的可解释性问题,并对现有的研究工作进行了系统的总结和科学的归类.同时,讨论了可解释性相关技术的潜在应用,分析了可解释性与可解释机器学习的安全性之间的关系,并且探讨了可解释性研究当前面临的挑战和未来潜在的研究方向,以期进一步推动可解释性研究的发展和应用. 展开更多
关键词 机器学习 可解释性 解释方法 可解释机器学习 安全性
下载PDF
深度学习可解释性研究进展 被引量:64
2
作者 成科扬 王宁 +1 位作者 师文喜 詹永照 《计算机研究与发展》 EI CSCD 北大核心 2020年第6期1208-1217,共10页
深度学习的可解释性研究是人工智能、机器学习、认知心理学、逻辑学等众多学科的交叉研究课题,其在信息推送、医疗研究、金融、信息安全等领域具有重要的理论研究意义和实际应用价值.从深度学习可解释性研究起源、研究探索期、模型构建... 深度学习的可解释性研究是人工智能、机器学习、认知心理学、逻辑学等众多学科的交叉研究课题,其在信息推送、医疗研究、金融、信息安全等领域具有重要的理论研究意义和实际应用价值.从深度学习可解释性研究起源、研究探索期、模型构建期3方面回顾了深度学习可解释性研究历史,从可视化分析、鲁棒性扰动分析、敏感性分析3方面展现了深度学习现有模型可解释性分析研究现状,从模型代理、逻辑推理、网络节点关联分析、传统机器学习模型改进4方面剖析了可解释性深度学习模型构建研究,同时对当前该领域研究存在的不足作出了分析,展示了可解释性深度学习的典型应用,并对未来可能的研究方向作出了展望. 展开更多
关键词 人工智能 深度学习 可解释性 神经网络 可视化
下载PDF
基于双重注意力LSTM神经网络的可解释海上风电出力预测 被引量:43
3
作者 苏向敬 周汶鑫 +3 位作者 李超杰 米阳 符杨 董朝阳 《电力系统自动化》 EI CSCD 北大核心 2022年第7期141-151,共11页
海上风电面临复杂多变气象和海况条件的深度耦合影响,导致其出力预测精度有待提升。同时,预测模型的“黑盒”结构导致出力预测结果在工程应用中可信度偏低。针对上述问题,提出一种基于双重注意力长短期记忆(DALSTM)网络的超短期海上风... 海上风电面临复杂多变气象和海况条件的深度耦合影响,导致其出力预测精度有待提升。同时,预测模型的“黑盒”结构导致出力预测结果在工程应用中可信度偏低。针对上述问题,提出一种基于双重注意力长短期记忆(DALSTM)网络的超短期海上风电出力预测模型。在长短期记忆神经网络的基础上,引入特征空间和时序双重注意力机制,动态挖掘海上风电出力与输入特征间的潜在相关性,并从特征和时间2个方面获得重要性量度,在一定程度上实现了模型的可解释性。最后,基于中国东海大桥海上风电场数据采集与监控数据进行仿真验证。结果表明,所提DALSTM网络模型能够对海上风电出力进行有效的超短期预测,相比于传统预测模型具有更高的预测精度和稳定性,同时具有合理的可解释性。 展开更多
关键词 海上风电 出力预测 长短期记忆 注意力 可解释性
下载PDF
深度学习模型可解释性的研究进展 被引量:38
4
作者 化盈盈 张岱墀 葛仕明 《信息安全学报》 CSCD 2020年第3期1-12,共12页
深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识。然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的... 深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识。然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的实际部署。因此,亟需提高深度学习模型的可解释性,使模型透明化,以推动人工智能领域研究的发展。本文旨在对深度学习模型可解释性的研究进展进行系统性的调研,从可解释性原理的角度对现有方法进行分类,并且结合可解释性方法在人工智能领域的实际应用,分析目前可解释性研究存在的问题,以及深度学习模型可解释性的发展趋势。为全面掌握模型可解释性的研究进展以及未来的研究方向提供新的思路。 展开更多
关键词 深度学习模型 可解释性 人工智能
下载PDF
深度学习的可解释性 被引量:35
5
作者 吴飞 廖彬兵 韩亚洪 《航空兵器》 CSCD 北大核心 2019年第1期39-46,共8页
深度学习已经成功运用在自然语言、多媒体、计算机视觉、语音和跨媒体等相关的特定领域。然而,这一架构在"端到端"模式下、通过标注大量数据来进行误差后向传播而优化参数的学习方法被比喻为一个"黑盒子",解释性较... 深度学习已经成功运用在自然语言、多媒体、计算机视觉、语音和跨媒体等相关的特定领域。然而,这一架构在"端到端"模式下、通过标注大量数据来进行误差后向传播而优化参数的学习方法被比喻为一个"黑盒子",解释性较弱。可解释性指算法要对特定任务给出清晰概括,并与人类世界中已定义的原则或原理联结。在诸如自动驾驶、医疗和金融决策等"高风险"领域,利用深度学习进行重大决策时,往往需要知晓算法所给出结果的依据。因此,透明化深度学习的"黑盒子",使其具有可解释性,具有重要意义。围绕深度学习可解释性这一问题,本文从卷积神经网络可视化、卷积神经网络的特征分析、卷积神经网络的缺陷及优化、利用传统机器学习模型来解释神经网络和基于可解释模块的深度网络学习这五个方面介绍现有研究工作。对近年来人工智能顶级会议上关于深度学习可解释性的论文发表数量进行统计分析,发现深度学习的可解释性是目前人工智能研究的一个热点。最后,本文认为深度学习的可解释性研究可从因果模型、推理、认知理论和模型、智能人机交互等方面着手,以构建出可解释、更通用和适应性强的人工智能理论、模型和方法。 展开更多
关键词 深度学习 可解释性 端到端 可视化 智能人机交互 人工智能
下载PDF
一种数据驱动的暂态电压稳定评估方法及其可解释性研究 被引量:35
6
作者 周挺 杨军 +4 位作者 詹祥澎 裴洋舟 张俊 陈厚桂 朱凤华 《电网技术》 EI CSCD 北大核心 2021年第11期4416-4425,共10页
将数据驱动方法用于电力系统暂态电压稳定评估可以较好地兼顾预测速度与准确性,但存在模型泛化能力不佳及可解释性差等问题。利用系统故障后采集的物理量作为输入特征,基于支持类别特征的梯度提升(gradient boosting with categorical f... 将数据驱动方法用于电力系统暂态电压稳定评估可以较好地兼顾预测速度与准确性,但存在模型泛化能力不佳及可解释性差等问题。利用系统故障后采集的物理量作为输入特征,基于支持类别特征的梯度提升(gradient boosting with categorical features support,Catboost)算法构建暂态电压稳定评估模型。在模型训练中采用排序提升的方法避免预测偏移问题,提升准确性;使用对称决策树以提高计算效率;同时考虑数据的类别不平衡特性,采用代价敏感手段提高模型的分类性能。为了提高模型的可解释性,提出基于SHAP理论的暂态电压稳定评估归因分析框架,通过计算Shapley值的平均绝对值大小得到暂态电压稳定特征重要性排序,并根据每个特征的边际贡献,进一步量化不同输入特征对模型输出结果的影响。在新英格兰10机39节点系统上的测试结果表明,所提方法比其他机器学习算法具有更高的预测准确性与更快的预测速度,基于Shapley值的归因分析方法能够有效地解释输入特征对暂态电压稳定的影响以及机器学习模型对样本的预测结果。 展开更多
关键词 暂态电压稳定评估 数据驱动 Catboost模型 可解释性 SHAPLEY值
下载PDF
深度学习中注意力机制研究进展 被引量:35
7
作者 刘建伟 刘俊文 罗雄麟 《工程科学学报》 EI CSCD 北大核心 2021年第11期1499-1511,共13页
对注意力机制的主流模型进行了全面系统的概述.注意力机制模拟人类视觉选择性的机制,其核心的目的是从冗杂的信息中选择出对当前任务目标关联性更大、更关键的信息而过滤噪声,也就是高效率信息选择和关注机制.首先简要介绍和定义了注意... 对注意力机制的主流模型进行了全面系统的概述.注意力机制模拟人类视觉选择性的机制,其核心的目的是从冗杂的信息中选择出对当前任务目标关联性更大、更关键的信息而过滤噪声,也就是高效率信息选择和关注机制.首先简要介绍和定义了注意力机制的原型,接着按照多个层面对各种注意力机制结构进行分类,然后对注意力机制的可解释性进行了阐述同时总结了在各种领域的应用,最后指出了注意力机制未来的发展方向以及会面临的挑战. 展开更多
关键词 注意力机制 全局/局部注意力机制 硬/软注意力机制 自注意力机制 可解释性
下载PDF
重新找回人工智能的可解释性 被引量:32
8
作者 何华灿 《智能系统学报》 CSCD 北大核心 2019年第3期393-412,共20页
针对深度神经网络 AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较... 针对深度神经网络 AI研究的可解释性瓶颈,指出刚性逻辑(数理形式逻辑)和二值神经元等价,二值神经网络可转换成逻辑表达式,有强可解释性。深度神经网络一味增加中间层数来拟合大数据,没有适时通过抽象把最小粒度的数据(原子)变成粒度较大的知识(分子),再把较小粒度的知识变成较大粒度的知识,把原有的强可解释性淹没在中间层次的汪洋大海中。要支持多粒度的知识处理,需把刚性逻辑扩张为柔性命题逻辑(命题级数理辩证逻辑),把二值神经元扩张为柔性神经元,才能保持强可解释性。本文详细介绍了从刚性逻辑到柔性逻辑的扩张过程和成果,最后介绍了它们在 AI研究中的应用,这是重新找回 AI研究强可解释性的最佳途径。 展开更多
关键词 人工智能 可解释性 演化 不确定性 泛逻辑学 柔性命题逻辑 柔性神经元 数理辩证逻辑
下载PDF
基于改进一维卷积神经网络的电力系统暂态稳定评估 被引量:31
9
作者 赵恺 石立宝 《电网技术》 EI CSCD 北大核心 2021年第8期2945-2954,共10页
为充分挖掘电力系统暂态过程中量测数据的时序信息,并进一步提高电力系统暂态稳定评估的准确率,提出了一种基于改进一维卷积神经网络的电力系统暂态稳定评估方法。该方法直接以底层量测数据作为输入特征,通过使用多尺寸卷积核来替代传... 为充分挖掘电力系统暂态过程中量测数据的时序信息,并进一步提高电力系统暂态稳定评估的准确率,提出了一种基于改进一维卷积神经网络的电力系统暂态稳定评估方法。该方法直接以底层量测数据作为输入特征,通过使用多尺寸卷积核来替代传统的单尺寸卷积核,能够有效提取量测数据的多粒度时序信息,实现了端到端的暂态稳定评估。另一方面,引入了焦点损失函数来指导模型训练,其能发掘困难样本并且缓解样本不均衡问题,进一步提升了模型的辨识性能。此外,通过应用Guided Grad-CAM算法对暂态评估模型的类激活图进行可视化分析,提升了模型的可解释性和透明性。在新英格兰10机39节点算例系统上的仿真分析表明,相较于基于传统机器学习和深度学习的暂态稳定评估方法,所提出的方法具有更优的评估性能,并且对受“污染”数据具有更好的鲁棒性。 展开更多
关键词 暂态稳定评估 一维卷积神经网络 深度学习 焦点损失函数 可解释性
下载PDF
深度学习模型可解释性研究综述 被引量:28
10
作者 曾春艳 严康 +2 位作者 王志锋 余琰 纪纯妹 《计算机工程与应用》 CSCD 北大核心 2021年第8期1-9,共9页
深度学习技术以数据驱动学习的特点,在自然语言处理、图像处理、语音识别等领域取得了巨大成就。但由于深度学习模型网络过深、参数多、复杂度高等特性,该模型做出的决策及中间过程让人类难以理解,因此探究深度学习的可解释性成为当前... 深度学习技术以数据驱动学习的特点,在自然语言处理、图像处理、语音识别等领域取得了巨大成就。但由于深度学习模型网络过深、参数多、复杂度高等特性,该模型做出的决策及中间过程让人类难以理解,因此探究深度学习的可解释性成为当前人工智能领域研究的新课题。以深度学习模型可解释性为研究对象,对其研究进展进行总结阐述。从自解释模型、特定模型解释、不可知模型解释、因果可解释性四个方面对主要可解释性方法进行总结分析。列举出可解释性相关技术的应用,讨论当前可解释性研究存在的问题并进行展望,以推动深度学习可解释性研究框架的进一步发展。 展开更多
关键词 深度学习 可解释性 人工智能 因果可解释 自解释
下载PDF
多元协作框架下算法的规制 被引量:29
11
作者 杜小奇 《河北法学》 CSSCI 北大核心 2019年第12期176-190,共15页
算法在提高决策效率的同时也产生了算法偏见和算法歧视,算法黑箱的存在使得算法部署者时常以工具中立性为由逃避算法责任,这直接导致了受算法影响的相对人很难获得救济。算法规制的重心应当是对算法不利结果的预防和矫正而非解释算法的... 算法在提高决策效率的同时也产生了算法偏见和算法歧视,算法黑箱的存在使得算法部署者时常以工具中立性为由逃避算法责任,这直接导致了受算法影响的相对人很难获得救济。算法规制的重心应当是对算法不利结果的预防和矫正而非解释算法的输出结果,具体可采取个人、算法部署者和监管机构参与的多元协作规制模式,为个人设置免受算法决策定性的通道,要求算法部署者对算法决策的不利后果实施事前预防、事中控制和事后矫正,督促监管机构进行算法审查并向公众披露信息,以实现推动技术创新和个人权益保护的平衡。 展开更多
关键词 算法黑箱 风险社会 可解释权 有限监管 多元协作
原文传递
翻译与异质他者的文化焦虑 被引量:28
12
作者 孙艺风 《中国翻译》 CSSCI 北大核心 2007年第1期5-10,共6页
翻译的核心问题之一是对异质他者的文化焦虑和矛盾心理,在构成翻译基础的文化政治中,异质他者性在本质上被具体化。尽管说意识形态无处不在有些言过其实,但它显示出一种主要跟语言和艺术息息相关的倾向,并且对翻译的需要同目的语言系统... 翻译的核心问题之一是对异质他者的文化焦虑和矛盾心理,在构成翻译基础的文化政治中,异质他者性在本质上被具体化。尽管说意识形态无处不在有些言过其实,但它显示出一种主要跟语言和艺术息息相关的倾向,并且对翻译的需要同目的语言系统的政治或文化关注密不可分。差异的文化政治跟坦言、真诚、可理解性和移情有很大关系。翻译的有效性不仅仅来自对所译信息内容的合理解读,还取决于目的语读者的能力,在于目的语读者通过获取对异质他者在其文化政治语境中的必要了解,而将该信息同相关文化情境联系起来的能力。技巧上或者说人为的等同需要拒绝和简化原义,然而强制文化输入被理所当然地认为是一种入侵;常以意识形态冠之的文学和翻译的争论,往往围绕异质他者的建构力和破坏力来进行。尽管有时与主流政治环境相悖,翻译仍然可以接受和引入异质的政治和民族价值观。 展开更多
关键词 他者(性) 异化 差异 可阐释性 等同 对话(性)
原文传递
电力系统稳定评估机器学习可解释代理模型研究 被引量:26
13
作者 韩天森 陈金富 +2 位作者 李银红 何耿生 李弘毅 《中国电机工程学报》 EI CSCD 北大核心 2020年第13期4122-4130,共9页
机器学习是解决电力系统稳定评估问题的关键技术之一,但由于普遍存在的模型可解释性不足的缺点,其工程应用面临障碍。针对该问题,提出一种稳定评估机器学习模型通用解释方法,基于加权线性回归和正则化构造局部代理模型以解释原模型。提... 机器学习是解决电力系统稳定评估问题的关键技术之一,但由于普遍存在的模型可解释性不足的缺点,其工程应用面临障碍。针对该问题,提出一种稳定评估机器学习模型通用解释方法,基于加权线性回归和正则化构造局部代理模型以解释原模型。提出2种不同的代理模型训练数据采样方法,得到连续和二元数据,利用两种采样数据分别训练代理模型,模型参数代表状态变量与稳定水平之间的灵敏度和贡献度,揭示机器学习模型的运算逻辑。解释结果可帮助决策者对模型建立信任,并可为稳定控制提供依据。算例对静态电压稳定裕度评估机器学习模型进行解释,验证解释方法的准确性和有效性。 展开更多
关键词 可解释性 机器学习 稳定评估 代理模型 灵敏度 贡献度
下载PDF
走向可解释性:打开教育中人工智能的“黑盒” 被引量:25
14
作者 刘桐 顾小清 《中国电化教育》 CSSCI 北大核心 2022年第5期82-90,共9页
教育是人工智能的重要应用领域,探索教育中人工智能的可解释性,是让人工智能在教育领域中更具“责任感”的重要议题。该文从教育中人工智能应用的现实问题出发,重点回应教育中人工智能的可解释性是什么,做了什么,以及未来走向三个问题... 教育是人工智能的重要应用领域,探索教育中人工智能的可解释性,是让人工智能在教育领域中更具“责任感”的重要议题。该文从教育中人工智能应用的现实问题出发,重点回应教育中人工智能的可解释性是什么,做了什么,以及未来走向三个问题。首先,以数据、任务、模型、人四个关键要素为切入点,分析阐述教育中人工智能的可解释性内涵;之后纵观教育中人工智能的可解释工作的演进过程,分析得出已有工作在教育意义注入、模型趋于复杂以及单向解释信息传递等方面的局限性;最后,从知识联邦、模型融生、人在回路三个角度,阐释教育中人工智能可解释性的未来发展方向。 展开更多
关键词 教育人工智能 可解释性 “黑盒”模型 人在回路
下载PDF
知识图谱可解释推理研究综述 被引量:17
15
作者 侯中妮 靳小龙 +3 位作者 陈剑赟 官赛萍 王元卓 程学旗 《软件学报》 EI CSCD 北大核心 2022年第12期4644-4667,共24页
面向知识图谱的知识推理旨在通过已有的知识图谱事实,去推断新的事实,进而实现知识库的补全.近年来,尽管基于分布式表示学习的方法在推理任务上取得了巨大的成功,但是他们的黑盒属性使得模型无法为预测出的事实做出解释.所以,如何设计... 面向知识图谱的知识推理旨在通过已有的知识图谱事实,去推断新的事实,进而实现知识库的补全.近年来,尽管基于分布式表示学习的方法在推理任务上取得了巨大的成功,但是他们的黑盒属性使得模型无法为预测出的事实做出解释.所以,如何设计用户可理解、可信赖的推理模型成为了人们关注的问题.从可解释性的基本概念出发,系统梳理了面向知识图谱的可解释知识推理的相关工作,具体介绍了事前可解释推理模型和事后可解释推理模型的研究进展;根据可解释范围的大小,将事前可解释推理模型进一步细分为全局可解释的推理和局部可解释的推理;在事后解释模型中,回顾了推理模型的代表方法,并详细介绍提供事后解释的两类解释方法.此外,还总结了可解释知识推理在医疗、金融领域的应用.随后,对可解释知识推理的现状进行概述,最后展望了可解释知识推理的未来发展方向,以期进一步推动可解释推理的发展和应用. 展开更多
关键词 可解释性 知识推理 知识图谱 事后可解释 事前可解释
下载PDF
面向图像分类的深度模型可解释性研究综述 被引量:16
16
作者 杨朋波 桑基韬 +2 位作者 张彪 冯耀功 于剑 《软件学报》 EI CSCD 北大核心 2023年第1期230-254,共25页
深度学习目前在计算机视觉、自然语言处理、语音识别等领域得到了深入发展,与传统的机器学习算法相比,深度模型在许多任务上具有较高的准确率.然而,作为端到端的具有高度非线性的复杂模型,深度模型的可解释性没有传统机器学习算法好,这... 深度学习目前在计算机视觉、自然语言处理、语音识别等领域得到了深入发展,与传统的机器学习算法相比,深度模型在许多任务上具有较高的准确率.然而,作为端到端的具有高度非线性的复杂模型,深度模型的可解释性没有传统机器学习算法好,这为深度学习在现实生活中的应用带来了一定的阻碍.深度模型的可解释性研究具有重大意义而且是非常必要的,近年来许多学者围绕这一问题提出了不同的算法.针对图像分类任务,将可解释性算法分为全局可解释性和局部可解释性算法.在解释的粒度上,进一步将全局解释性算法分为模型级和神经元级的可解释性算法,将局部可解释性算法划分为像素级特征、概念级特征以及图像级特征可解释性算法.基于上述分类框架,总结了常见的深度模型可解释性算法以及相关的评价指标,同时讨论了可解释性研究面临的挑战和未来的研究方向.认为深度模型的可解释性研究和理论基础研究是打开深度模型黑箱的必要途径,同时可解释性算法存在巨大潜力可以为解决深度模型的公平性、泛化性等其他问题提供帮助. 展开更多
关键词 深度学习 可解释性 图像分类 特征
下载PDF
卷积神经网络表征可视化研究综述 被引量:19
17
作者 司念文 张文林 +3 位作者 屈丹 罗向阳 常禾雨 牛铜 《自动化学报》 EI CAS CSCD 北大核心 2022年第8期1890-1920,共31页
近年来,深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展,这些任务多以卷积神经网络为基础搭建识别模型,训练后的模型拥有优异的自动特征提取和预测性能,能够为用户提供“输入–输出”形式的端到端解决方案.然而,由于... 近年来,深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展,这些任务多以卷积神经网络为基础搭建识别模型,训练后的模型拥有优异的自动特征提取和预测性能,能够为用户提供“输入–输出”形式的端到端解决方案.然而,由于分布式的特征编码和越来越复杂的模型结构,人们始终无法准确理解卷积神经网络模型内部知识表示,以及促使其做出特定决策的潜在原因.另一方面,卷积神经网络模型在一些高风险领域的应用,也要求对其决策原因进行充分了解,方能获取用户信任.因此,卷积神经网络的可解释性问题逐渐受到关注.研究人员针对性地提出了一系列用于理解和解释卷积神经网络的方法,包括事后解释方法和构建自解释的模型等,这些方法各有侧重和优势,从多方面对卷积神经网络进行特征分析和决策解释.表征可视化是其中一种重要的卷积神经网络可解释性方法,能够对卷积神经网络所学特征及输入–输出之间的相关关系以视觉的方式呈现,从而快速获取对卷积神经网络内部特征和决策的理解,具有过程简单和效果直观的特点.对近年来卷积神经网络表征可视化领域的相关文献进行了综合性回顾,按照以下几个方面组织内容:表征可视化研究的提起、相关概念及内容、可视化方法、可视化的效果评估及可视化的应用,重点关注了表征可视化方法的分类及算法的具体过程.最后是总结和对该领域仍存在的难点及未来研究趋势进行了展望. 展开更多
关键词 深度学习 卷积神经网络 可解释性 表征可视化 显著图
下载PDF
基于改进教学式方法的可解释信用风险评价模型构建 被引量:19
18
作者 董路安 叶鑫 《中国管理科学》 CSSCI CSCD 北大核心 2020年第9期45-53,共9页
信用风险评价是金融机构风险防控的重要环节之一。近年来,基于机器学习的信用风险评价模型以其准确的预测效果受到越来越多的关注,但机器学习模型具有可解释性不强的弊端,导致投资者无法完全信任其预测结果。针对上述问题,本文提出了一... 信用风险评价是金融机构风险防控的重要环节之一。近年来,基于机器学习的信用风险评价模型以其准确的预测效果受到越来越多的关注,但机器学习模型具有可解释性不强的弊端,导致投资者无法完全信任其预测结果。针对上述问题,本文提出了一种改进的教学式方法,利用机器学习模型指导生成一个兼顾准确性与可解释性的信用风险评价决策树模型,以辅助投资者决策。为提高决策树对机器学习模型中正确功能的学习能力,提出了基于Weight Synthetic Minority Over-sampling Technique(Weight-SMOTE)的伪数据集生成方法,以提高伪数据集中可信度高的功能所标记的伪样本比例;为实现所生成的决策树在准确性、可解释性以及其与机器学习模型一致性间的有效权衡,在决策树生成过程中提出了一种新的决策树剪枝方法;同时针对保真度评价指标的局限性,提出了真保真度评价指标,来有效的衡量决策树与机器学习模型正确功能的近似程度。最后使用3个真实信用风险评价数据集对改进的教学式方法进行验证,实验结果表明所提出方法能够生成准确且可解释的信用风险评价模型,以满足投资者的决策偏好与实际需求。 展开更多
关键词 信用风险评价 机器学习模型 可解释性 教学式方法
原文传递
人工智能司法的三重矛盾 被引量:18
19
作者 聂友伦 《浙江工商大学学报》 CSSCI 北大核心 2022年第2期66-75,共10页
目前主流人工智能司法属于“数据驱动”类型,其试图从海量司法数据中发现相关性并形成算法模型,以之预测待决案件的结果。人工智能司法的理论预设为“基于充分数据,通过科学算法,确保结果公正”。然而,预设与现实之间的差距巨大,人工智... 目前主流人工智能司法属于“数据驱动”类型,其试图从海量司法数据中发现相关性并形成算法模型,以之预测待决案件的结果。人工智能司法的理论预设为“基于充分数据,通过科学算法,确保结果公正”。然而,预设与现实之间的差距巨大,人工智能司法的技术逻辑在数据、算法与结果各层面都存在足以使其断裂的矛盾:第一,样本的结构性缺失、潜在因素的标记不足、低质数据的大量存在,不能满足作为技术前提的数据充分性要求;第二,虚假相关的无法排除、算法歧视的隐性生成、预测结果的不特定性,使得算法模型难以获得科学性保证;第三,价值判断的被动失效、先例数据的隐含错误、地方差异的强行拉平,构成了结果非公正性的来源,严重降低了实践应用的可接受度。以上矛盾形成了人工智能司法自我拆解的离心力。未来人工智能司法的发展重点应被置于提高算法模型的可解释性方面。 展开更多
关键词 人工智能 矛盾 相关关系 正当性 可解释性
下载PDF
公平机器学习:概念、分析与设计 被引量:17
20
作者 古天龙 李龙 +1 位作者 常亮 罗义琴 《计算机学报》 EI CAS CSCD 北大核心 2022年第5期1018-1051,共34页
随着人工智能的发展,机器学习技术越来越多地应用于社会各个领域,用以辅助或代替人们进行决策,特别是在一些具有重要影响的领域,例如,信用程度评级、学生质量评估、福利资源分配、疾病临床诊断、自然语言处理、个性信息推荐、刑事犯罪... 随着人工智能的发展,机器学习技术越来越多地应用于社会各个领域,用以辅助或代替人们进行决策,特别是在一些具有重要影响的领域,例如,信用程度评级、学生质量评估、福利资源分配、疾病临床诊断、自然语言处理、个性信息推荐、刑事犯罪判决、无人驾驶等.如何在这些应用中确保决策公平或者无偏见?如何在这些应用中保护弱势群体的利益?这些问题直接影响到社会和公众对机器学习的信任,影响到人工智能技术的应用与系统的部署.通过系统梳理和全面剖析近年来的工作,对机器学习公平性或公平机器学习的定义及度量进行了解释及对比;从机器学习的全生命周期出发,对不同环节中出现的各类偏见及其发现技术进行了归类及阐释;从预处理、中间处理和后处理三个阶段,对公平机器学习的设计技术进行了介绍和分析;从可信赖人工智能全局出发,对公平性与隐私保护、可解释性之间的关系、影响及协同解决方案进行了阐述;最后对公平机器学习领域中亟待解决的主要问题、挑战及进一步研究热点进行了讨论. 展开更多
关键词 机器学习 公平性 隐私保护 可解释 人工智能伦理
下载PDF
上一页 1 2 250 下一页 到第
使用帮助 返回顶部