期刊导航
期刊开放获取
cqvip
退出
期刊文献
+
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
任意字段
题名或关键词
题名
关键词
文摘
作者
第一作者
机构
刊名
分类号
参考文献
作者简介
基金资助
栏目信息
检索
高级检索
期刊导航
共找到
6
篇文章
<
1
>
每页显示
20
50
100
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
显示方式:
文摘
详细
列表
相关度排序
被引量排序
时效性排序
论疫情防控中个人信息的数据利用与保护
被引量:
4
1
作者
洪凌啸
《地方立法研究》
CSSCI
2022年第4期49-59,共11页
疫情防控过程中,中国政府与互联网企业或通过健康认证方式收集数据,或运用“接触追踪”的大数据分析手段确定确诊患者或疑似患者的行踪轨迹。当下,我国疫情防控面临着数据收集处理的合法性不足、个人敏感信息的界定不明、个人信息强制...
疫情防控过程中,中国政府与互联网企业或通过健康认证方式收集数据,或运用“接触追踪”的大数据分析手段确定确诊患者或疑似患者的行踪轨迹。当下,我国疫情防控面临着数据收集处理的合法性不足、个人敏感信息的界定不明、个人信息强制收集及改变信息使用目的过程中的告知程序缺位、个人信息收集存储使用权限与数据安全保护责任不匹配等问题。观之域外欧盟GDPR在抗疫过程中对个人信息收集与处理所规定的数据最小化原则与目的限定原则,未来中国在重大公共卫生领域中应首先对数据收集处理主体的权责划分作出清晰的界定,其次对个人信息收集采“目的明确”“最小够用”标准,并在数据存储、数据对外公开方面加以严格限制,最后应建立“接触追踪”技术的算法审计与算法解释制度。
展开更多
关键词
接触追踪
个人信息
健康码
算法审计
算法解释
下载PDF
职称材料
优化算法可解释性及透明度义务之诠释与展开
被引量:
65
2
作者
苏宇
《法律科学(西北政法大学学报)》
CSSCI
北大核心
2022年第1期133-141,共9页
算法推荐服务提供者需要履行优化算法可解释性及透明度的义务。算法可解释性是算法模型的客观属性,算法透明度则是算法运行结果与主观预期的关系。优化算法可解释性及透明度的要求包含两个需要相对区分的义务,需要分别作结构化、层次化...
算法推荐服务提供者需要履行优化算法可解释性及透明度的义务。算法可解释性是算法模型的客观属性,算法透明度则是算法运行结果与主观预期的关系。优化算法可解释性及透明度的要求包含两个需要相对区分的义务,需要分别作结构化、层次化的处理,按照初步优化、适度优化、充分优化三个层次,展开为有适用场景和程度变化的一系列具体要求。在具体法制建设中,应当进一步界定可解释性与算法透明度之概念,明确优化算法可解释性与算法透明度义务与算法解释请求权之关系,完善场景化、层次化的优化义务结构,并通过技术标准中的多元化可选规则为优化提供指引。
展开更多
关键词
算法治理
算法解释
算法推荐
可解释性
透明度
原文传递
论算法解释的基本原则——来自司法公开的启示
被引量:
6
3
作者
包康赟
《时代法学》
2020年第6期40-55,共16页
算法解释与司法公开在规制的方式、目标、对象和成本等关键方面存在共性,在内容权属、决策类型等少数方面保有特性。在构建算法解释的治理方案时,两者的共性为此提供了借鉴基础,彼此的特性则指引了变通的方向。综合而言,司法公开对算法...
算法解释与司法公开在规制的方式、目标、对象和成本等关键方面存在共性,在内容权属、决策类型等少数方面保有特性。在构建算法解释的治理方案时,两者的共性为此提供了借鉴基础,彼此的特性则指引了变通的方向。综合而言,司法公开对算法解释有四方面启示:第一,在定位上应确立“谦抑原则”。如同司法公开的地位,算法解释仅为算法决策的治理工具之一,不宜夸大其功能。第二,在限度上应确立“保留原则”。类似司法公开的尺度,算法解释应当有所保留。这是由其可能性、合理性和必要性共同决定的。第三,在要件上应确立“细分原则”。效仿司法公开的举措,算法解释及其各构成要件可以而且应当精细拆分,进而在具体场景下精准地满足监管要求。第四,在实施上应确立“比例原则”。恰如司法公开的实施路径,对于算法解释的内容、时机和对象,应在权衡价值冲突、计算成本收益后灵活确定。上述来自司法公开的启示,为算法解释奠定了基本原则,也将为数字经济保驾护航。
展开更多
关键词
算法解释
司法公开
算法决策
谦抑原则
保留原则
细分原则
比例原则
下载PDF
职称材料
大数据时代的算法解释权:背景、逻辑与构造
被引量:
111
4
作者
张恩典
《法学论坛》
CSSCI
北大核心
2019年第4期152-160,共9页
大数据时代,算法自动化决策在广泛运用于私人生活与公共治理领域的同时,也导致了隐私和歧视风险。究其原因,在于算法透明性缺乏导致算法决策的黑箱效应,并最终危及算法决策可责性。算法解释权旨在通过赋予数据主体获得算法自动决策的解...
大数据时代,算法自动化决策在广泛运用于私人生活与公共治理领域的同时,也导致了隐私和歧视风险。究其原因,在于算法透明性缺乏导致算法决策的黑箱效应,并最终危及算法决策可责性。算法解释权旨在通过赋予数据主体获得算法自动决策的解释的权利,明确数据控制者的解释义务,通过提高算法透明性达致重塑算法决策可责性,进而缓和算法决策隐私和歧视风险的目的,具有现实的正当性基础。在具体权利构造上,依据解释标准和解释时机的不同,算法解释权可以界分为以算法系统功能为中心的解释权模式与以具体决策为中心的解释权模式,两种解释权模式并非非此即彼的排他关系,在具体的解释权运用中,应当根据算法决策所处的具体阶段和时机来选择适当的解释权模式。
展开更多
关键词
大数据时代
算法自动决策
算法解释权
透明性
可责性
原文传递
基于机器学习构建急性心力衰竭患者易损期死亡或再入院风险预测模型
5
作者
曾竟
何小龙
+5 位作者
胡华娟
罗晓宇
郭志念
陈运龙
王敏
王江
《陆军军医大学学报》
CAS
CSCD
北大核心
2024年第7期738-745,共8页
目的应用不同机器学习算法构建急性心力衰竭(acute heart failure,AHF)患者易损期死亡或再入院的风险预测模型,并筛选出最优模型。方法选取2019年10月至2021年7月于陆军军医大学第二附属医院心血管内科住院治疗的651例AHF患者为研究对象...
目的应用不同机器学习算法构建急性心力衰竭(acute heart failure,AHF)患者易损期死亡或再入院的风险预测模型,并筛选出最优模型。方法选取2019年10月至2021年7月于陆军军医大学第二附属医院心血管内科住院治疗的651例AHF患者为研究对象,收集入院生命体征、合并症和实验室检查结果等临床资料。复合终点事件定义为AHF患者出院后3个月内发生全因死亡或心衰加重再入院。采用简单随机抽样法将研究对象按8∶2拆分为训练集(521例)和测试集(130例),基于逻辑回归(logistic regression,LR)、随机森林(random forest,RF)、决策树(decision tree,DT)、轻量梯度提升(light gradient boosting machine,LGBM)、极端梯度提升(extreme gradient boosting,XGBoost)和神经网络(neural network,NN)6种机器学习算法分别构建预测模型。采用受试者工作特征曲线(receiver operating characteristic,ROC)和临床决策曲线(decision curve analysis,DCA)对模型的预测性能和临床获益进行评价,使用Shapley加性解释(Shapley additive explanation,SHAP)算法评估不同临床特征对模型的影响。结果651例AHF患者中发生复合终点事件203例(31.2%)。ROC曲线分析显示,LR、RF、DT、LGBM、XGBoost和NN模型的曲线下面积(area under curve,AUC)依次为0.707、0.756、0.616、0.677、0.768、0.681,XGBoost模型的AUC最高,DCA曲线中XGBoost模型的临床决策净获益也更大,整体预测效能最佳。SHAP算法分析得出,影响XGBoost模型输出结果的重要临床特征分别为血清尿酸、D-二聚体、平均动脉压、B型利钠肽、左房前后径、体质量指数和NYHA分级。结论XGBoost模型预测急性心力衰竭患者易损期死亡或再入院风险效果最佳。
展开更多
关键词
急性心力衰竭
易损期
机器学习
预测模型
Shapley加性解释算法
下载PDF
职称材料
基于可解释的麻雀优化随机森林算法的驾驶疲劳检测方法
6
作者
赵国亮
刘强
+2 位作者
陈泽平
朱靖龙
李波
《科学技术与工程》
北大核心
2024年第30期13161-13169,共9页
针对疲劳驾驶难以准确检测和检测模型可解释性低的问题,提出了一种可解释的麻雀优化随机森林模型(SSA-RFC-SHAP)用于驾驶疲劳检测。以驾驶员脉搏波信号为数据源,进行心率变异性分析并提取特征指标;通过皮尔逊相关性检验和卡方独立性检...
针对疲劳驾驶难以准确检测和检测模型可解释性低的问题,提出了一种可解释的麻雀优化随机森林模型(SSA-RFC-SHAP)用于驾驶疲劳检测。以驾驶员脉搏波信号为数据源,进行心率变异性分析并提取特征指标;通过皮尔逊相关性检验和卡方独立性检验筛选出用于驾驶疲劳程度判别的特征指标集;通过麻雀算法对随机森林分类器进行优化并建立驾驶疲劳三分类检测模型;最后利用夏普利加性解释算法对模型检测结果进行可解释性分析。结果表明:提出的SSA-RFC-SHAP模型在驾驶疲劳三分类检测任务中,准确率、精确率、召回率和F 1分别达到90.52%、90.34%、90.16%、90.24%,高于RFC、BiLSTM、CNN-LSTM和Gradient Boosting模型;在模型的可解释性方面,得到了各特征对模型预测的影响以及模型的具体决策过程,其中MeanHR与疲劳状态存在负相关关系,MedianNN和LF与疲劳状态存在正相关关系。可见提出的SSA-RFC-SHAP驾驶疲劳检测模型可为驾驶疲劳预警提供科学指导。
展开更多
关键词
交通安全
驾驶疲劳检测
可解释性
夏普利加性解释算法
心率变异性
麻雀优化算法
下载PDF
职称材料
题名
论疫情防控中个人信息的数据利用与保护
被引量:
4
1
作者
洪凌啸
机构
上海大学法学院
出处
《地方立法研究》
CSSCI
2022年第4期49-59,共11页
基金
四川省社会科学重点基地“纠纷解决与司法改革研究中心”资助课题(2021DJKTb1)阶段性成果。
文摘
疫情防控过程中,中国政府与互联网企业或通过健康认证方式收集数据,或运用“接触追踪”的大数据分析手段确定确诊患者或疑似患者的行踪轨迹。当下,我国疫情防控面临着数据收集处理的合法性不足、个人敏感信息的界定不明、个人信息强制收集及改变信息使用目的过程中的告知程序缺位、个人信息收集存储使用权限与数据安全保护责任不匹配等问题。观之域外欧盟GDPR在抗疫过程中对个人信息收集与处理所规定的数据最小化原则与目的限定原则,未来中国在重大公共卫生领域中应首先对数据收集处理主体的权责划分作出清晰的界定,其次对个人信息收集采“目的明确”“最小够用”标准,并在数据存储、数据对外公开方面加以严格限制,最后应建立“接触追踪”技术的算法审计与算法解释制度。
关键词
接触追踪
个人信息
健康码
算法审计
算法解释
Keywords
contact
tracking
personal
information
health
code
audits
of
algorithms
explanation
of
algorithms
分类号
D922.16 [政治法律—宪法学与行政法学]
D922.1 [政治法律—法学]
下载PDF
职称材料
题名
优化算法可解释性及透明度义务之诠释与展开
被引量:
65
2
作者
苏宇
机构
中国人民公安大学法学院
出处
《法律科学(西北政法大学学报)》
CSSCI
北大核心
2022年第1期133-141,共9页
基金
2020年度北京市社科基金重大项目(20ZDA02)“数据科技时代法学基本范畴的体系重构”。
文摘
算法推荐服务提供者需要履行优化算法可解释性及透明度的义务。算法可解释性是算法模型的客观属性,算法透明度则是算法运行结果与主观预期的关系。优化算法可解释性及透明度的要求包含两个需要相对区分的义务,需要分别作结构化、层次化的处理,按照初步优化、适度优化、充分优化三个层次,展开为有适用场景和程度变化的一系列具体要求。在具体法制建设中,应当进一步界定可解释性与算法透明度之概念,明确优化算法可解释性与算法透明度义务与算法解释请求权之关系,完善场景化、层次化的优化义务结构,并通过技术标准中的多元化可选规则为优化提供指引。
关键词
算法治理
算法解释
算法推荐
可解释性
透明度
Keywords
governance
for
algorithm
explanation
of
algorithm
algorithm
ic
recommendation
explainability
transparency
分类号
D920.1 [政治法律—法学]
原文传递
题名
论算法解释的基本原则——来自司法公开的启示
被引量:
6
3
作者
包康赟
机构
北京大学法学院
出处
《时代法学》
2020年第6期40-55,共16页
文摘
算法解释与司法公开在规制的方式、目标、对象和成本等关键方面存在共性,在内容权属、决策类型等少数方面保有特性。在构建算法解释的治理方案时,两者的共性为此提供了借鉴基础,彼此的特性则指引了变通的方向。综合而言,司法公开对算法解释有四方面启示:第一,在定位上应确立“谦抑原则”。如同司法公开的地位,算法解释仅为算法决策的治理工具之一,不宜夸大其功能。第二,在限度上应确立“保留原则”。类似司法公开的尺度,算法解释应当有所保留。这是由其可能性、合理性和必要性共同决定的。第三,在要件上应确立“细分原则”。效仿司法公开的举措,算法解释及其各构成要件可以而且应当精细拆分,进而在具体场景下精准地满足监管要求。第四,在实施上应确立“比例原则”。恰如司法公开的实施路径,对于算法解释的内容、时机和对象,应在权衡价值冲突、计算成本收益后灵活确定。上述来自司法公开的启示,为算法解释奠定了基本原则,也将为数字经济保驾护航。
关键词
算法解释
司法公开
算法决策
谦抑原则
保留原则
细分原则
比例原则
Keywords
explanation
of
algorithm
judicial
disclosure
algorithm
ic
decision-making
principle
of
modesty
principle
of
reservation
principle
of
subdivision
principle
of
proportionality
分类号
D913 [政治法律—民商法学]
下载PDF
职称材料
题名
大数据时代的算法解释权:背景、逻辑与构造
被引量:
111
4
作者
张恩典
机构
南昌大学法学院
出处
《法学论坛》
CSSCI
北大核心
2019年第4期152-160,共9页
基金
2018年度江西省高校人文社会科学研究青年项目《大数据挖掘风险的法律规制研究》(FX18203)
2018年度教育部哲学社会科学研究重大课题攻关项目《中美网络空间治理比较研究》(18JZD040)的阶段性成果
文摘
大数据时代,算法自动化决策在广泛运用于私人生活与公共治理领域的同时,也导致了隐私和歧视风险。究其原因,在于算法透明性缺乏导致算法决策的黑箱效应,并最终危及算法决策可责性。算法解释权旨在通过赋予数据主体获得算法自动决策的解释的权利,明确数据控制者的解释义务,通过提高算法透明性达致重塑算法决策可责性,进而缓和算法决策隐私和歧视风险的目的,具有现实的正当性基础。在具体权利构造上,依据解释标准和解释时机的不同,算法解释权可以界分为以算法系统功能为中心的解释权模式与以具体决策为中心的解释权模式,两种解释权模式并非非此即彼的排他关系,在具体的解释权运用中,应当根据算法决策所处的具体阶段和时机来选择适当的解释权模式。
关键词
大数据时代
算法自动决策
算法解释权
透明性
可责性
Keywords
age
of
big
data
algorithm
ic
automatic
decision-making
right
to
explanation
of
algorithm
ic
decision
transparency
accountability
分类号
D913 [政治法律—民商法学]
原文传递
题名
基于机器学习构建急性心力衰竭患者易损期死亡或再入院风险预测模型
5
作者
曾竟
何小龙
胡华娟
罗晓宇
郭志念
陈运龙
王敏
王江
机构
陆军军医大学(第三军医大学)第二附属医院心血管内科
西南财经大学统计学院
出处
《陆军军医大学学报》
CAS
CSCD
北大核心
2024年第7期738-745,共8页
基金
重庆市科卫联合医学重点项目(2023ZDXM035)。
文摘
目的应用不同机器学习算法构建急性心力衰竭(acute heart failure,AHF)患者易损期死亡或再入院的风险预测模型,并筛选出最优模型。方法选取2019年10月至2021年7月于陆军军医大学第二附属医院心血管内科住院治疗的651例AHF患者为研究对象,收集入院生命体征、合并症和实验室检查结果等临床资料。复合终点事件定义为AHF患者出院后3个月内发生全因死亡或心衰加重再入院。采用简单随机抽样法将研究对象按8∶2拆分为训练集(521例)和测试集(130例),基于逻辑回归(logistic regression,LR)、随机森林(random forest,RF)、决策树(decision tree,DT)、轻量梯度提升(light gradient boosting machine,LGBM)、极端梯度提升(extreme gradient boosting,XGBoost)和神经网络(neural network,NN)6种机器学习算法分别构建预测模型。采用受试者工作特征曲线(receiver operating characteristic,ROC)和临床决策曲线(decision curve analysis,DCA)对模型的预测性能和临床获益进行评价,使用Shapley加性解释(Shapley additive explanation,SHAP)算法评估不同临床特征对模型的影响。结果651例AHF患者中发生复合终点事件203例(31.2%)。ROC曲线分析显示,LR、RF、DT、LGBM、XGBoost和NN模型的曲线下面积(area under curve,AUC)依次为0.707、0.756、0.616、0.677、0.768、0.681,XGBoost模型的AUC最高,DCA曲线中XGBoost模型的临床决策净获益也更大,整体预测效能最佳。SHAP算法分析得出,影响XGBoost模型输出结果的重要临床特征分别为血清尿酸、D-二聚体、平均动脉压、B型利钠肽、左房前后径、体质量指数和NYHA分级。结论XGBoost模型预测急性心力衰竭患者易损期死亡或再入院风险效果最佳。
关键词
急性心力衰竭
易损期
机器学习
预测模型
Shapley加性解释算法
Keywords
acute
heart
failure
vulnerable
phase
machine
learning
prediction
model
Shapley
additive
explanation
algorithms
分类号
R181.32 [医药卫生—流行病学]
R319 [医药卫生—公共卫生与预防医学]
R541.6
下载PDF
职称材料
题名
基于可解释的麻雀优化随机森林算法的驾驶疲劳检测方法
6
作者
赵国亮
刘强
陈泽平
朱靖龙
李波
机构
中山大学智能工程学院
广东玛西尔电动科技有限公司
广州汽车集团股份有限公司汽车工程研究院
出处
《科学技术与工程》
北大核心
2024年第30期13161-13169,共9页
基金
广东省基础与应用基础研究基金(2022A1515010692)
重庆市科技创新重大研发项目(CSTB2023TIAD-STX0030)。
文摘
针对疲劳驾驶难以准确检测和检测模型可解释性低的问题,提出了一种可解释的麻雀优化随机森林模型(SSA-RFC-SHAP)用于驾驶疲劳检测。以驾驶员脉搏波信号为数据源,进行心率变异性分析并提取特征指标;通过皮尔逊相关性检验和卡方独立性检验筛选出用于驾驶疲劳程度判别的特征指标集;通过麻雀算法对随机森林分类器进行优化并建立驾驶疲劳三分类检测模型;最后利用夏普利加性解释算法对模型检测结果进行可解释性分析。结果表明:提出的SSA-RFC-SHAP模型在驾驶疲劳三分类检测任务中,准确率、精确率、召回率和F 1分别达到90.52%、90.34%、90.16%、90.24%,高于RFC、BiLSTM、CNN-LSTM和Gradient Boosting模型;在模型的可解释性方面,得到了各特征对模型预测的影响以及模型的具体决策过程,其中MeanHR与疲劳状态存在负相关关系,MedianNN和LF与疲劳状态存在正相关关系。可见提出的SSA-RFC-SHAP驾驶疲劳检测模型可为驾驶疲劳预警提供科学指导。
关键词
交通安全
驾驶疲劳检测
可解释性
夏普利加性解释算法
心率变异性
麻雀优化算法
Keywords
traffic
safety
driving
fatigue
detection
interpretability
Sharpley
additive
explanation
algorithm
heart
rate
variability
sparrow
search
algorithm
分类号
U491.61 [交通运输工程—交通运输规划与管理]
下载PDF
职称材料
题名
作者
出处
发文年
被引量
操作
1
论疫情防控中个人信息的数据利用与保护
洪凌啸
《地方立法研究》
CSSCI
2022
4
下载PDF
职称材料
2
优化算法可解释性及透明度义务之诠释与展开
苏宇
《法律科学(西北政法大学学报)》
CSSCI
北大核心
2022
65
原文传递
3
论算法解释的基本原则——来自司法公开的启示
包康赟
《时代法学》
2020
6
下载PDF
职称材料
4
大数据时代的算法解释权:背景、逻辑与构造
张恩典
《法学论坛》
CSSCI
北大核心
2019
111
原文传递
5
基于机器学习构建急性心力衰竭患者易损期死亡或再入院风险预测模型
曾竟
何小龙
胡华娟
罗晓宇
郭志念
陈运龙
王敏
王江
《陆军军医大学学报》
CAS
CSCD
北大核心
2024
0
下载PDF
职称材料
6
基于可解释的麻雀优化随机森林算法的驾驶疲劳检测方法
赵国亮
刘强
陈泽平
朱靖龙
李波
《科学技术与工程》
北大核心
2024
0
下载PDF
职称材料
已选择
0
条
导出题录
引用分析
参考文献
引证文献
统计分析
检索结果
已选文献
上一页
1
下一页
到第
页
确定
用户登录
登录
IP登录
使用帮助
返回顶部