-
题名从ChatGPT看AI未来趋势和挑战
被引量:44
- 1
-
-
作者
桑基韬
于剑
-
机构
北京交通大学计算机学院
交通数据分析与挖掘北京市重点实验室(北京交通大学)
-
出处
《计算机研究与发展》
EI
CSCD
北大核心
2023年第6期1191-1201,共11页
-
基金
北京市杰出青年基金项目(JQ20023)
国家自然科学基金项目(61832002)。
-
文摘
在人工智能领域,ChatGPT作为一种重要的技术突破,引起了广泛的关注.本文将探讨ChatGPT在人工智能发展中的地位及其对未来AI的影响.首先,介绍了ChatGPT所展现出的优秀对话生成能力,使其几乎可以胜任所有自然语言处理任务,并将作为数据生成器、知识挖掘工具、模型调度员、自然交互界面在各种场景得到应用.接着,分析了其在事实错误、毒害内容生成、安全性、公平性、可解释性、数据隐私等方面的局限,并讨论了作为辅助人类工具的ChatGPT明确能力边界和提高能力范围的重要性.然后,从概念经典表示对“真”定义进行了分析,并从概念三指不等价的角度阐释性了ChatGPT无法区分真假的原因.在论述AI未来时,从拓展应用、克服局限、探索理论分析了中短期技术趋势,并从感知、认知、情感、行为智能四个层面的关系讨论了长期发展路径.最后,探讨了ChatGPT作为认知智能的代表,对包括认知成本、教育要求、图灵测试认识、学术界的机遇与挑战、信息茧房、能源环境问题和生产力提升等方面可能产生的影响.
-
关键词
ChatGPT
人工智能发展
对话生成
技术挑战
可信ai
社会影响
-
Keywords
ChatGPT
ai development
dialogue generation
technical challenge
trustworthy ai
social impact
-
分类号
TP391
[自动化与计算机技术—计算机应用技术]
-
-
题名医疗领域多模态AI模型的机遇、挑战与治理应对
- 2
-
-
作者
曹建峰
徐艳玲
-
机构
对外经济贸易大学数字经济与法律创新研究中心
华南理工大学法学院
-
出处
《中国医学伦理学》
北大核心
2024年第9期1023-1029,共7页
-
文摘
具有变革性潜力的多模态模型在医疗领域的快速发展和广泛应用,标志着医疗人工智能进入了一个全新的大模型时代,通过整合和分析大量的文本、图像和语音数据等,在预防、诊断和治疗各个环节推动了医疗服务的个性化和精准化。然而,随着大型多模态模型在医疗健康领域的快速发展和应用,医疗领域的监管机构和传统规则体系也面临着全新挑战。其中,虚假信息、“情感操纵”、算法偏见和侵权责任的模糊都是亟待解决的核心问题。为应对这些挑战,一是落实人工智能全生命周期安全措施,打造可信的医疗大模型应用;二是践行伦理嵌入设计的AI伦理治理理念,实现医疗大模型价值对齐;三是明确医疗大模型的产品责任规则的适用,确保对受害人的有效救济。共同推进医疗人工智能安全和有效应用,为构建更加健康、公正和智能的医疗生态系统作出贡献。
-
关键词
通用基础模型
大型多模态模型
价值对齐
可信ai
产品责任
-
Keywords
general-purpose foundation models
large multimodal models
value alignment
trustworthy ai
product liability
-
分类号
R-052
[医药卫生]
-
-
题名核电人工智能应用:现状、挑战和机遇
被引量:2
- 3
-
-
作者
张恒
吕雪
刘东
王国胤
杭芹
沙睿
郭宾
-
机构
重庆邮电大学计算智能重庆市重点实验室
中国核动力研究设计院核反应堆系统设计技术重点实验室
中国核能行业协会
杭州木链物联网科技有限公司
-
出处
《核动力工程》
EI
CAS
CSCD
北大核心
2023年第1期1-8,共8页
-
基金
国家自然科学基金(12005030)
重庆市自然科学基金(cstc2019jcyj-cxttX0002,cstc2021ycjh-bgzxm0013)
+1 种基金
在渝本科高校与中国科学院所属院所合作项目(HZ2021008)
教育部哲学社会科学研究重大课题攻关项目(20JZD026)。
-
文摘
近年来,人工智能技术被广泛应用于核电领域,以促进核电厂通过实现自诊断、自寻优、自适应,最终达到提高生产效率、降低运行成本、提高运行安全性的目的。本文介绍了在核电领域经常使用的人工智能技术,总结了其在智慧矿山、智能设计、智能制造和智能运维4个核工业典型应用场景中的研究现状,最后,从数据样本、网络安全、深度学习的解释性3个方面分析了人工智能技术在核电领域应用的挑战和发展趋势。
-
关键词
核电人工智能应用
可信人工智能
可解释深度学习
核安全
-
Keywords
Nuclear power ai applications
trustworthy ai
Explainable deep learning
Nuclear safety
-
分类号
TL334
[核科学技术—核技术及应用]
-
-
题名类人信任与可信任性:可信人工智能发展的路径选择
被引量:2
- 4
-
-
作者
刘永安
-
机构
南京师范大学泰州学院法学院
-
出处
《昆明理工大学学报(社会科学版)》
2023年第4期27-33,共7页
-
基金
教育部人文社会科学研究规划项目“前瞻性治理视域下新兴技术伦理评估的理论和方法研究”(22Y JAZH071)
江苏高校哲学社会科学研究项目“人工智能体的道德责任问题研究”(2021SJA2474)。
-
文摘
随着人类与人工智能的深度交融,人类与人工智能的关系具有了超越工具主义的内在特征。在此背景下,可信已被确立为引导人工智能未来发展的规范性要求,发展可信人工智能已成为全球性的共识。有鉴于“人—机”关系与人际关系的差异,发展可信人工智能的关键在于增强人工智能的可信任性,而不是谋求人工智能对“类人信任”前置条件的满足。发展可信人工智能需要在认识论上立足于存在论的现象学视域;在方法论上实现由个人契约论方法向社会现象学方法的转变;在现实性上则需要通过构筑社会技术系统的信任网络方能最终增进对人工智能的信任。
-
关键词
可信人工智能
可信任性
人机共生
社会现象学方法
社会技术系统
-
Keywords
trustworthy ai
trustworthiness
human-machine symbiosis
social phenomenological approach
sociotechnical system
-
分类号
B82-057
[哲学宗教—伦理学]
TP18
[自动化与计算机技术—控制理论与控制工程]
-
-
题名可信人工智能的政策和投资建议
- 5
-
-
作者
无
史聪
-
机构
人工智能高级别专家组
上海社会科学院法学研究所
-
出处
《信息安全与通信保密》
2019年第9期70-78,共9页
-
文摘
欧盟人工智能高级别专家组于2019年6月26日公布了《可信人工智能的政策和投资建议》,该报告是由欧盟人工智能高级别专家组编写的第二份文件。报告共分为三章,前两章分别聚焦可信人工智能产生有益影响的四个领域和推动可信人工智能发展的四个因素,并提出33项建议,以指导可信人工智能实现可持续、可增长、有竞争、可包容的发展,同时赋能并造福和保护人类;第三章回顾总结了本报告的主要内容。报告指出,当前欧洲正处于第三次数字化浪潮中,这次数字化浪潮的特点是人工智能技术的应用。然而,人工智能的部署既可以增进人类的福祉,也可能带来潜在的危害。报告旨在使欧洲在最大限度上从人工智能应用中获益的同时,有效预防和化解风险。
-
关键词
可信人工智能
以人为本
政策
投资
-
Keywords
trustworthy ai
Human-centric
Policy
Investment
-
分类号
F49
[经济管理—产业经济]
-
-
题名基于扎根理论的可信AI实践影响因素研究
被引量:1
- 6
-
-
作者
陈强
贾婷
敦帅
-
机构
同济大学经济与管理学院
中共上海市委党校
-
出处
《上海大学学报(社会科学版)》
北大核心
2023年第3期19-36,共18页
-
基金
国家社会科学基金重大项目(21ZDA018)。
-
文摘
随着人工智能战略性技术地位的提升和应用场景的不断丰富,AI伦理风险引起社会各界的广泛重视,发展可信AI逐渐成为共识,而企业被认为是可信AI实践的核心主体。研究通过深度访谈及二手数据的补充挖掘,采用程序性扎根理论研究方法探究影响企业可信AI实践的深层次因素,结果发现:可信AI实践意愿、使命、制度环境和能力4个主范畴对企业可信AI实践行为存在显著影响;可信AI实践意愿和实践能力是内驱因素,可信AI实践制度环境作为间接因素调节着企业可信AI实践意愿与行为之间的关系,可信AI实践使命作为间接因素则调节着企业可信AI实践能力与行为之间的关系,且各范畴下构成因子对变量的影响方式和作用路径不同。研究表明,双因素驱动的可信AI实践形成机制,对构建多主体、全流程可信的人工智能技术发展生态具有重要意义。
-
关键词
可信ai实践
影响因素
驱动模型
伦理治理
-
Keywords
trustworthy ai practice
influencing factors
driven model
ethical governance
-
分类号
DF523.1
[政治法律—民商法学]
-