期刊文献+
共找到103篇文章
< 1 2 6 >
每页显示 20 50 100
算法偏见及其规制路径研究 被引量:191
1
作者 刘友华 《法学杂志》 CSSCI 北大核心 2019年第6期55-66,共12页
算法偏见问题引发了广泛关注,不同程度损害公众基本权利、经营者竞争性利益和特定个体的民事权益,亟需规制。通过分解机器学习过程可知,算法偏见萌芽于数据收集步骤,成熟于模型完善步骤,强化于模型应用阶段。算法偏见的规制,需从社会减... 算法偏见问题引发了广泛关注,不同程度损害公众基本权利、经营者竞争性利益和特定个体的民事权益,亟需规制。通过分解机器学习过程可知,算法偏见萌芽于数据收集步骤,成熟于模型完善步骤,强化于模型应用阶段。算法偏见的规制,需从社会减少偏见,保证数据可查性与算法可审计性,对算法使用者与设计者课以相应义务,以公平、透明和可责的算法确保算法的规范应用。 展开更多
关键词 算法偏见 算法歧视 算法黑箱 机器学习 法律规制
原文传递
生成式人工智能的三大安全风险及法律规制——以ChatGPT为例 被引量:179
2
作者 刘艳红 《东方法学》 CSSCI 北大核心 2023年第4期29-43,共15页
ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数... ChatGPT的横空出世意味着人工智能的发展获得全新动能,根据生成式人工智能从准备、运算到生成阶段的运行机理,可以发现其中存在三大安全风险。针对生成式人工智能在准备阶段的数据风险,应基于总体国家安全观统筹使用国家数据,对政务数据进行合规监管,在个人数据的收集广度上保持合规并以最小比例原则确定处理深度,以确保生成结论的真实性。针对生成式人工智能在运算阶段的算法模型特点及算法偏见风险,应通过技管结合进行修正,完善技术标准并予以实质审查,建立自动化、生态化、全流程的动态监管体系。针对生成式人工智能在生成阶段的知识产权风险,鉴于其生成物的独特属性,应基于可解释性重塑其保护模式,明确保护的对象是ChatGPT中的可解释算法及其生成物,并构建全流程知产合规保护体系。对于生成式人工智能在未来可能造成的其他安全风险,宜基于风险预防主义加以防范,争取在最大程度上发挥生成式人工智能的技术效能,并减少新兴技术对社会发展造成的负面冲击。 展开更多
关键词 ChatGPT 生成式人工智能 合规制度 数据安全 算法偏见 知识产权
下载PDF
算法政治:风险、发生逻辑与治理 被引量:155
3
作者 汝绪华 《厦门大学学报(哲学社会科学版)》 CSSCI 北大核心 2018年第6期27-38,共12页
作为一种新事物,人工智能算法不仅是一项新技术,更是新的权力形态。算法即权力。与其他领域相比,算法早已渗透政治领域的各个层面,人工智能算法的强大威力在证明自己的同时,也带给政治管理与政治传播模式以革命性变革。算法与政治的日... 作为一种新事物,人工智能算法不仅是一项新技术,更是新的权力形态。算法即权力。与其他领域相比,算法早已渗透政治领域的各个层面,人工智能算法的强大威力在证明自己的同时,也带给政治管理与政治传播模式以革命性变革。算法与政治的日益结合正在发展为一种潮流,算法政治已经成为一个不容忽视的议题。然而,算法的内在缺陷及其不当使用也给算法政治带来了诸多风险,备受批评,已经影响到其健康发展。算法政治不仅是一项技术问题,更是一个政治与道德问题。因此,明晰算法政治的风险及其发生逻辑,并善加治理,方可让其成为政治管理的好帮手,而不是"麻烦制造者",这对于算法政治的健康发展具有十分重要的意义。 展开更多
关键词 算法政治 发生逻辑 算法偏见 后真相
下载PDF
解构智能传播的数据神话:算法偏见的成因与风险治理路径 被引量:120
4
作者 郭小平 秦艺轩 《现代传播(中国传媒大学学报)》 CSSCI 北大核心 2019年第9期19-24,共6页
算法依托大数据与计算机程序运行,被视为"客观中立"的信息中介。然而,智能传播算法实践证明,所谓的"算法中立"不过是人们对数据和技术的乌托邦想象。政治内嵌与资本介入,社会结构性偏见的循环,量化计算对有机世界... 算法依托大数据与计算机程序运行,被视为"客观中立"的信息中介。然而,智能传播算法实践证明,所谓的"算法中立"不过是人们对数据和技术的乌托邦想象。政治内嵌与资本介入,社会结构性偏见的循环,量化计算对有机世界的遮蔽,必将导致算法的内生性偏见。算法正义原则旨在建构公平、透明、负责的算法系统。在算法主导的信息传播机制中兼顾数据主体的可见性与自主性,提升算法的透明度,在立法实践上规范算法技术、建立算法问责机制是对抗算法偏见、规避数字风险的有效治理路径。 展开更多
关键词 智能传播 数据神话 算法偏见 偏见循环 算法正义
下载PDF
人工智能时代算法黑箱的法治化治理 被引量:56
5
作者 吴椒军 郭婉儿 《科技与法律(中英文)》 CSSCI 2021年第1期19-28,共10页
算法作为人类利用机器抓取、处理并输出数据的手段,其所得结果受到编写者主观偏差,技术偏差等多种影响。因算法编写的高度专业性,用户无法知悉有关于自身信息数据被抓取,处理以及应用的细节,这样的不透明性显然对用户的权益与社会秩序... 算法作为人类利用机器抓取、处理并输出数据的手段,其所得结果受到编写者主观偏差,技术偏差等多种影响。因算法编写的高度专业性,用户无法知悉有关于自身信息数据被抓取,处理以及应用的细节,这样的不透明性显然对用户的权益与社会秩序造成影响,对我国的法律机制也带来极大挑战。针对算法的运行模式,剖析算法黑箱带来的个人信息数据侵权、算法偏见及司法救济三重危机。通过对欧盟《通用数据保护条例》与欧洲《人工智能伦理与数据保护宣言》对算法黑箱的治理条款,针对上述三重危机从技术角度、法律角度与伦理角度对算法黑箱进行法治化管理,以实现算法黑箱法治化治理层面的合法性与最佳性耦合。 展开更多
关键词 算法黑箱 算法偏见 个人信息 人工智能 技术伦理
下载PDF
从算法偏见到算法歧视:算法歧视的责任问题探究 被引量:56
6
作者 孟令宇 《东北大学学报(社会科学版)》 CSSCI 北大核心 2022年第1期1-9,共9页
算法的公正问题被视作如今人工智能领域一个核心的伦理问题,通常被表述为“算法偏见”或“算法歧视”,但偏见与歧视实际上是两个问题。区分这两个问题可以显示出算法偏见并不具有伦理维度,而算法歧视才是人工智能领域中真正的核心伦理... 算法的公正问题被视作如今人工智能领域一个核心的伦理问题,通常被表述为“算法偏见”或“算法歧视”,但偏见与歧视实际上是两个问题。区分这两个问题可以显示出算法偏见并不具有伦理维度,而算法歧视才是人工智能领域中真正的核心伦理问题。算法偏见是不可避免的,主要来自开发者的偏见、数据的偏见和算法自身的偏见。其中,显性偏见是容易被发现并剔除的,但隐性偏见则不可避免地存在于算法之中。算法歧视的责任主体则主要是人,人们对于算法偏见的盲从导致了算法歧视。自主决策算法所引发的歧视也可以追责到人。因此,算法的开发者和使用者要为算法歧视负责。 展开更多
关键词 算法歧视 算法偏见 深度学习 人工智能
下载PDF
智能传播中算法偏见的成因、影响与对策 被引量:51
7
作者 许向东 王怡溪 《国际新闻界》 CSSCI 北大核心 2020年第10期69-85,共17页
随着智能技术的发展,算法逐渐渗入新闻信息的生产与推送中。然而,算法并非是完全价值中立的技术,算法偏见是社会偏见在人工智能时代的产物。在算法运行中,运算规则设计、数据收集、处理及运用、运算过程等环节都可能会产生偏见。算法偏... 随着智能技术的发展,算法逐渐渗入新闻信息的生产与推送中。然而,算法并非是完全价值中立的技术,算法偏见是社会偏见在人工智能时代的产物。在算法运行中,运算规则设计、数据收集、处理及运用、运算过程等环节都可能会产生偏见。算法偏见不仅背离了公平公正的新闻职业规范、挑战了用户知情权和信息选择权,还会解构社会共识,引发舆论风险等。因此,本研究建议从法律法规、技术创新、第三方审核机构和算法价值观四个层面对算法偏见进行约束与规制。 展开更多
关键词 算法偏见 成因 影响 对策
原文传递
社会治理:人工智能时代算法偏见的问题与规制 被引量:47
8
作者 岳平 苗越 《上海大学学报(社会科学版)》 CSSCI 北大核心 2021年第6期1-11,共11页
随着人工智能、大数据的快速发展,社会已经进入了算法社会。算法已经全面渗透于社会经济、生活及管理的运行。然而算法并非是完全客观、价值中立的技术。算法运行过程中产生的偏见及问题,其本质是社会偏见在人工智能时代的映射,逐渐显... 随着人工智能、大数据的快速发展,社会已经进入了算法社会。算法已经全面渗透于社会经济、生活及管理的运行。然而算法并非是完全客观、价值中立的技术。算法运行过程中产生的偏见及问题,其本质是社会偏见在人工智能时代的映射,逐渐显现侵害社会公众的人格平等权、隐私权,并对数据安全形成威胁甚至破坏,从而导致对社会危害现象的发生。因此,不应禁锢于算法中的技术乌托邦理念,通过把握算法偏见产生的环节及其存在的法律及事实风险,减少其因不确定性危害风险带来的对社会秩序的冲击,有必要及时建构法律和综合治理的风险防控体系,并将对算法偏见的防控治理纳入常态化社会治理体系中。 展开更多
关键词 人工智能 算法偏见 治理防控
下载PDF
智能新闻信息分发中的算法偏见与伦理规制 被引量:45
9
作者 林爱珺 刘运红 《新闻大学》 CSSCI 北大核心 2020年第1期29-39,125,126,共13页
算法技术介入智能新闻信息分发的过程中,提高了信息的传播效率,也引发了算法偏见这一伦理问题。从个人主体权利的角度看,算法偏见使用户的信息选择权和知情权遭遇严峻挑战。本文分析了算法偏见产生的技术逻辑,并从保障用户信息选择权和... 算法技术介入智能新闻信息分发的过程中,提高了信息的传播效率,也引发了算法偏见这一伦理问题。从个人主体权利的角度看,算法偏见使用户的信息选择权和知情权遭遇严峻挑战。本文分析了算法偏见产生的技术逻辑,并从保障用户信息选择权和知情权出发,提出了一系列基于信息权利的算法伦理原则,包括自主性原则、公正性原则、最优化原则和透明性原则。 展开更多
关键词 智能新闻 算法偏见 信息权利 伦理原则
原文传递
人工智能教育应用的偏见风险分析与治理 被引量:40
10
作者 沈苑 汪琼 《电化教育研究》 CSSCI 北大核心 2021年第8期12-18,共7页
在倡导教育包容与公平的时代背景下,教育面临着以个性化、自适应为特征的智能技术所带来的偏见风险。在智能教育产品的研发过程中,潜在的设计偏见、数据偏见和算法偏见会使教育领域面临多重风险,如教育活动的公平性受阻、教育系统内部... 在倡导教育包容与公平的时代背景下,教育面临着以个性化、自适应为特征的智能技术所带来的偏见风险。在智能教育产品的研发过程中,潜在的设计偏见、数据偏见和算法偏见会使教育领域面临多重风险,如教育活动的公平性受阻、教育系统内部的歧视加剧、教育中的多元化特质消解和学生思想窄化。学校、科技公司、监管机构等组织应当携手共进,提前侦测偏见风险并加强治理,包括:提升研发团队的教育理解和多元眼光,让师生成为产品的合作创造者,加强偏见检测和道德评估过程,建立可解释、可审查、可纠正的系统优化机制,开展面向师生的人工智能素养教育,确立人工智能在教育中的应用范围和伦理规范,从而争取实现人机良性互动,打造多元包容的智能教育环境。 展开更多
关键词 人工智能教育应用 人工智能伦理 教育包容 算法偏见 数据偏见
下载PDF
刑法领域的新挑战:人工智能的算法偏见 被引量:40
11
作者 陈洪兵 陈禹衡 《广西大学学报(哲学社会科学版)》 CSSCI 2019年第5期85-93,共9页
人工智能助力司法领域的进步,但是其具有的算法偏见的问题则对刑法领域构成全新的挑战。算法偏见主要包括工程学算法偏见、遗传算法偏见、人工神经网络算法偏见,并主要来源于程序设计、测试数据的偏差以及自我学习的产生。算法偏见对于... 人工智能助力司法领域的进步,但是其具有的算法偏见的问题则对刑法领域构成全新的挑战。算法偏见主要包括工程学算法偏见、遗传算法偏见、人工神经网络算法偏见,并主要来源于程序设计、测试数据的偏差以及自我学习的产生。算法偏见对于刑法领域的挑战主要分为两个方面,分别是算法偏见构成的新的犯罪行为的刑法规制挑战和算法偏见对刑事审判带来的挑战。对于前者,侵害了公民的隐私权、公民的人格平等权以及数据安全法益,应该以破坏计算机信息系统罪和侵犯公民个人信息罪加以规制,但是对于后者,包括算法黑箱、算法鸿沟、算法独裁,需要在人工智能刑事审判系统构建之初保证算法公正、注重自我纠错能力、增强透明度,从而化解算法偏见对刑法领域的挑战。 展开更多
关键词 人工智能 算法偏见 刑事制裁 刑事审判
下载PDF
论算法排他权:破除算法偏见的路径选择 被引量:34
12
作者 梁志文 《政治与法律》 CSSCI 北大核心 2020年第8期94-106,共13页
算法属于计算技术和人工智能的核心技术。伴随着算法日益介入人类社会生活,被算法不透明(即算法黑箱)所遮蔽的算法偏见问题日趋严重,特别是在算法被应用于公权力行使的场合,它加剧了社会不平等、侵害个人权利等问题。现有的解决方案是... 算法属于计算技术和人工智能的核心技术。伴随着算法日益介入人类社会生活,被算法不透明(即算法黑箱)所遮蔽的算法偏见问题日趋严重,特别是在算法被应用于公权力行使的场合,它加剧了社会不平等、侵害个人权利等问题。现有的解决方案是构建算法透明度与算法可解释规则,但它难以完美地解决算法偏见的问题,还侵害了算法开发者的商业秘密。为了增加算法的透明度,可借鉴保护药品数据的管制性排他权制度,以算法公开(保存源代码)为对价赋予算法开发者一定期限内的市场排他权。将管制性排他权模式移植至算法保护,其基本规制目的是克服对算法监督的困难。算法排他权不会排斥算法受其他知识产权的保护。 展开更多
关键词 算法排他权 算法规制 算法偏见 算法透明度 商业秘密
下载PDF
人工智能时代的算法正义与秩序构建 被引量:32
13
作者 董青岭 朱玥 《探索与争鸣》 CSSCI 北大核心 2021年第3期82-86,178,共6页
算法从来就不是客观和中立的,通常算法由谁来制定、遵循何种规则和如何被执行反映的是设计者的价值选择与社会分配正义问题。就此而言,算法即规则,而规则即统治,算法已然成为人工智能时代社会变革的关键驱动力量和新秩序的塑造者。然而... 算法从来就不是客观和中立的,通常算法由谁来制定、遵循何种规则和如何被执行反映的是设计者的价值选择与社会分配正义问题。就此而言,算法即规则,而规则即统治,算法已然成为人工智能时代社会变革的关键驱动力量和新秩序的塑造者。然而,作为一种新式的权利和财富分配工具,算法在赋权一部分人的同时,算法滥用、算法误用以及算法垄断也在排斥和边缘化另外一部分人。算法歧视主要源自以下三种形成机制:原生性偏见、学习性偏见和外源性偏见。算法偏见与一般偏见不同,一旦形成不仅难以消除,而且极易产生社会放大效应。治理和规约算法偏见需要遵循以下四原则:授权同意原则、透明性原则、问责求偿原则以及人的价值和尊严优先原则。进而,在算法开发者、应用者、销售者、传播者以及管理者之间建立沟通桥梁并设立管控机制,以便将算法伤害和算法偏见收缩到最小,形成一个公平、公正的算法秩序。 展开更多
关键词 算法政治 算法歧视 算法偏见 算法正义 算法秩序
原文传递
人工智能时代算法性别歧视的类型界分与公平治理 被引量:30
14
作者 张欣 宋雨鑫 《妇女研究论丛》 CSSCI 北大核心 2022年第3期5-19,共15页
在人工智能时代,算法、大数据已经渗透到日常生活的方方面面,智能化正在急速改变我们的工作和生活方式。尽管算法使生活便捷高效,但算法作为一种新型社会权力,给女性的数字化生存带来广泛而系统的性别歧视风险。算法决策下的性别歧视包... 在人工智能时代,算法、大数据已经渗透到日常生活的方方面面,智能化正在急速改变我们的工作和生活方式。尽管算法使生活便捷高效,但算法作为一种新型社会权力,给女性的数字化生存带来广泛而系统的性别歧视风险。算法决策下的性别歧视包括镜像同构、耦合互动、关联交叉三种类型,相较于传统歧视行为具有高度隐蔽性、系统性和反复性特征,造成了放大性别歧视和结构性锁定女性不利地位的后果。算法性别歧视风险存在于算法全生命周期的各个环节。技术性偏见和社会性偏见的耦合交织,反歧视规范体系的应对失效以及软法体系缺位形成的“治理真空”使得歧视风险向实害结果转化。治理算法性别歧视,应以算法公平理念为指引、以算法生命周期为节点有效开展歧视风险管理,结构性扩容反歧视规范体系并培育公平向善的算法运行生态。 展开更多
关键词 算法偏见 算法性别歧视 算法公平
原文传递
自动化系统中算法偏见的法律规制 被引量:30
15
作者 张涛 《大连理工大学学报(社会科学版)》 CSSCI 北大核心 2020年第4期92-102,共11页
在日常生活中,算法的影响力越来越大,尤其是自动化算法系统更是举足轻重。由于输入数据及算法自身可能存在偏见,因此,自动化算法系统可能产生偏见影响。算法偏见不仅能够放大固有的人类偏见,而且还会妨碍个人的自我决定权,甚至威胁人身... 在日常生活中,算法的影响力越来越大,尤其是自动化算法系统更是举足轻重。由于输入数据及算法自身可能存在偏见,因此,自动化算法系统可能产生偏见影响。算法偏见不仅能够放大固有的人类偏见,而且还会妨碍个人的自我决定权,甚至威胁人身财产安全。欧盟对算法偏见采取了严厉的规制态度,通过赋予个人对“自动化决策”及“数据画像”的“解释权”“反对权”,并要求数据控制者履行“数据保护影响评估”义务,来消减自动化系统中的算法偏见。以此为借鉴,我国应该超越算法中的“技术乌托邦”,坚持“通过设计实现公平”,利用“合同治理”增强算法的透明性,实施算法影响评估。 展开更多
关键词 自动化决策 算法偏见 GDPR 算法问责
下载PDF
大数据证明的机理及可靠性探究 被引量:28
16
作者 王燃 《法学家》 CSSCI 北大核心 2022年第3期57-71,192-193,共17页
大数据促进了司法证明方式的革新。相较于传统证明,大数据证明具有超越人类主观经验的智能化特征,并从物理空间转向数据空间,从侧重逻辑的因果关系转向侧重数理的因果关系,从面向过去的证明转向涵摄未来的证明。数据、算法及法律程序是... 大数据促进了司法证明方式的革新。相较于传统证明,大数据证明具有超越人类主观经验的智能化特征,并从物理空间转向数据空间,从侧重逻辑的因果关系转向侧重数理的因果关系,从面向过去的证明转向涵摄未来的证明。数据、算法及法律程序是影响大数据证明可靠性的主要因素,具体表现为数据法律层面的错误及样本不全面,算法模型不准确及不公正,法律程序不透明。对此,可构建基于数据规则的可靠性审查机制。数据层面,应加强法律数据真实性判断,保证数据的全样本。算法准确性层面,引入算法同行评议机制,保障算法适用情景的匹配性;算法公正性层面,选择多元化数据集、识别替代性变量以及审查模型偏见。法律程序层面,建立算法开示程序、大数据证明结果排除规则以及专家辅助人出庭等制度。 展开更多
关键词 大数据 司法证明 算法偏见 算法开示
原文传递
走向人机协同:算法新闻时代的新闻伦理 被引量:27
17
作者 杜娟 《新闻爱好者》 CSSCI 北大核心 2019年第9期21-25,共5页
人工智能飞速发展的今天,新闻格局也在重构。算法新闻正在展现强大的发展势头。在算法新闻中,由于算法偏见、信息茧房等导致的新闻伦理失范问题,不但让我们重新呼唤新闻专业主义的回归,也让我们在算法新闻的大潮中寻找新的路径,来积极... 人工智能飞速发展的今天,新闻格局也在重构。算法新闻正在展现强大的发展势头。在算法新闻中,由于算法偏见、信息茧房等导致的新闻伦理失范问题,不但让我们重新呼唤新闻专业主义的回归,也让我们在算法新闻的大潮中寻找新的路径,来积极构建负责任的新闻生产。坚持工具理性与价值理性的统一,建立“人机协同”的模式,是我们重新构建新闻伦理的一条路径。 展开更多
关键词 新闻专业主义 算法偏见 信息茧房 人机协同
下载PDF
算法优化语境下自动驾驶汽车交通肇事的困境纾解 被引量:24
18
作者 陈禹衡 《苏州大学学报(法学版)》 CSSCI 2021年第3期60-73,共14页
自动驾驶汽车的算法不断优化,但同时也出现了责任分配不明、道德争议困局、算法偏见风险等问题。自动驾驶汽车依赖于系统学习功能下的人机互动,并非适格的追责主体,而算法的介入程度则影响责任分配,生产者主要负有生产风险控制责任,但... 自动驾驶汽车的算法不断优化,但同时也出现了责任分配不明、道德争议困局、算法偏见风险等问题。自动驾驶汽车依赖于系统学习功能下的人机互动,并非适格的追责主体,而算法的介入程度则影响责任分配,生产者主要负有生产风险控制责任,但不负道德责任,使用者负有日常检查与风险制止责任。对于诸如隧道难题之类的道德争议难题,预先植入功利主义的道德算法会有“泛道德化”风险,而由功利主义演化出的罗尔斯算法在实际适用中也存在缺陷。相反,基于自我保护原则编译算法,能够实现全局最优的选择结果。人工智能系统中的算法偏见无法被根本消除,只能对先天算法偏见进行形式审查和实质审查,对后天算法偏见补充相关规范文件并且加入预警程序,避免负面影响。 展开更多
关键词 算法 自动驾驶汽车 交通肇事 道德算法 算法偏见
下载PDF
智能技术赋能教育评价的时代内涵、伦理困境及对策研究 被引量:23
19
作者 吴龙凯 程浩 +1 位作者 张珊 宋琰玉 《电化教育研究》 CSSCI 北大核心 2023年第9期19-25,共7页
教育评价处于衡量与引导教育事业发展的枢纽环节,以人工智能、大数据为代表的智能技术全面赋能教育评价改革,支撑教育系统全方位、全要素、全流程转型。然而,目前有关智能技术赋能教育评价所引发的潜在伦理风险及其应对措施的研究尚不... 教育评价处于衡量与引导教育事业发展的枢纽环节,以人工智能、大数据为代表的智能技术全面赋能教育评价改革,支撑教育系统全方位、全要素、全流程转型。然而,目前有关智能技术赋能教育评价所引发的潜在伦理风险及其应对措施的研究尚不明确。基于此,文章系统回顾与分析了国内外有关智能技术赋能教育评价的相关研究,阐释了智能技术赋能教育评价的时代内涵,探析了智能技术赋能新时代教育评价的伦理困境:技术至上僭越教育主体底线、算法偏见触碰人本伦理防线、数据过度挖掘违背信息安全红线、唯机器评价偏移教育公平普惠基准线、智能评价围囿制约主体思维创新“高线”。提出了消解伦理困境的具体对策:明确评价主体地位,建立多级联动保障新机制;审视智能算法偏差,驱动绿色评价技术新引擎;筑牢数据安全护栏,探索“弹性+柔性”共治新模式;兼容内外评价范式,破解教育质量公平伦理新难题;培养人工智能素养,推动主体伦理道德新发展。 展开更多
关键词 智能技术赋能教育评价 时代内涵 伦理困境 对策研究 算法偏见
下载PDF
算法偏见概念、哲理基础与后果的系统回顾 被引量:23
20
作者 贾诗威 闫慧 《中国图书馆学报》 CSSCI 北大核心 2022年第6期57-76,共20页
算法偏见是社会偏见在算法信息社会的延伸,映射信息不平等。本文采用系统综述方法,对国内外算法偏见类型的实证研究进行梳理综合,在界定算法偏见的内涵和外延基础上,整合算法偏见的二元主体概念框架,并归纳算法偏见的三条形成链,包括人... 算法偏见是社会偏见在算法信息社会的延伸,映射信息不平等。本文采用系统综述方法,对国内外算法偏见类型的实证研究进行梳理综合,在界定算法偏见的内涵和外延基础上,整合算法偏见的二元主体概念框架,并归纳算法偏见的三条形成链,包括人类智能系统内的偏见链、人工智能系统内的偏见循环圈、人类智能系统到人工智能系统的偏见作用路径。然后从功能主义、冲突论、还原论和马克思主义角度反思算法偏见研究的哲理基础。最后从信息科学视角构建技术、信息、用户之间的三元交互影响模型,讨论算法偏见在技术、信息、用户三要素互动过程中的存在形式,并发现算法偏见导致的三类不平等现象——信息呈现不平等、信息分布不均衡和新型数字不平等。研究结果深刻揭示了算法时代的信息社会问题,并赋予信息领域的传统不平等话语新的内涵与外延,为信息职业人员应对算法时代新挑战提供思路和参考。图3。表2。参考文献92。 展开更多
关键词 算法偏见 信息不平等 数字不平等 信息呈现 信息分布
下载PDF
上一页 1 2 6 下一页 到第
使用帮助 返回顶部