-
题名大模型幻觉:人机传播中的认知风险与共治可能
- 1
-
-
作者
张铮
刘晨旭
-
机构
清华大学新闻与传播学院
-
出处
《苏州大学学报(哲学社会科学版)》
北大核心
2024年第5期171-180,共10页
-
基金
国家社会科学基金艺术学项目“新型数字文化消费对Z世代生活方式的影响研究”(项目编号:22BH156)的阶段性成果。
-
文摘
大模型在人机交互中可能产生“幻觉”,即生成的内容看似合理但与事实相悖。幻觉问题的产生并非偶然,由技术发展的局限性和用户输入的提示词与情境等共同所致。大模型幻觉对人的认知和信息传播构成风险,并对“数据范式”下的知识生产和隐性知识的价值显露带来挑战;同时,认知依赖下人机交互影响着人类的思维模式和判断力。为应对这些挑战,可通过提高训练数据的质量并明晰治理标准、增强模型透明性和可信性、实现有监督的机器动态自治等策略完善大模型未来发展方向。大模型幻觉无法完全避免,从另一个角度看,幻觉现象在创造性领域可能激发创新思维,为人类文化与艺术的发展注入新的活力与动力。
-
关键词
大模型幻觉
认知风险
知识生产
人机协同治理
人机传播
-
Keywords
hallucinations of large language models
perceived risk
knowledge production
human-computer collaborative governance
human-computer communication
-
分类号
G206
[文化科学—传播学]
-
-
题名减轻语言模型中的幻觉:知识图谱的力量
- 2
-
-
作者
李思蒙
-
机构
武汉市多比特信息科技有限公司
-
出处
《科学与信息化》
2023年第23期90-92,共3页
-
文摘
近年来,大语言模型在自然语言处理(NLP)领域取得了显著进展,但它们也面临着幻觉问题,即生成虚假或误导性信息的挑战。为了解决这一问题,研究者提出了将知识图谱集成到语言模型中的方法。知识图谱提供了结构化的现实世界知识表示,通过捕获实体之间的关系,使语言模型能够访问可靠信息。这种集成不仅提高了生成文本的准确性和可信度,还允许模型提供更具上下文相关性的响应。尽管有这些优势,但知识图谱也存在一些限制,如信息不完整和难以捕捉微妙差异。总之,通过利用知识图谱,可以提高语言模型的可靠性和准确性,但在解决剩余挑战方面仍需进一步研究和创新。
-
关键词
大语言模型幻觉
知识图谱
自然语言处理
-
Keywords
LLMs hallucinations
Knowledge graph
Natural language processing
-
分类号
G63
[文化科学—教育学]
-