期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
人机协同设计中的AI伦理决策模型:基于可解释性、公平性、责任感的均衡优化
1
作者 姜欣言 《创意与设计》 2024年第5期11-19,共9页
人工智能在设计领域的应用引发了一系列伦理决策困境,如机器行为不可解释、算法偏见导致决策不公平、人机责任边界模糊等,为应对挑战,亟需构建兼顾可解释性、公平性与责任感的AI伦理决策模型。可解释性提升人机协同设计中的信任,公平性... 人工智能在设计领域的应用引发了一系列伦理决策困境,如机器行为不可解释、算法偏见导致决策不公平、人机责任边界模糊等,为应对挑战,亟需构建兼顾可解释性、公平性与责任感的AI伦理决策模型。可解释性提升人机协同设计中的信任,公平性确保设计决策的正义,责任感促进人机共担,三者相互交织,形成AI伦理决策的“三位一体”。基于动态均衡理念,通过价值嵌入、多目标优化与人机交互,可构建面向人机协同设计的AI伦理决策模型,该模型立足三要素的动态权衡,针对不同情境进行差异化决策,体现从静态到动态、从单一到多元、从外在到内在的理论创新,它将在智能设计助手、自主化设计系统等场景中重塑设计价值取向,开拓设计伦理新维度,完善治理体系,提升伦理合规性,优化流程,创新范式,最终实现人机共生的设计伦理愿景。 展开更多
关键词 人机协同设计伦理 AI伦理决策均衡 解释-公平-责任协同 动态伦理优化模型
下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部