期刊文献+
共找到1篇文章
< 1 >
每页显示 20 50 100
面向联邦大语言模型训练的传输优化技术综述
1
作者 李卓 《计算机科学》 北大核心 2025年第1期42-55,共14页
随着人工智能技术的快速发展,各类大型语言模型不断涌现.但是专用大语言模型的用户及数据集大多具有隐私性和安全性要求,数据安全隐私问题亟待解决.在此背景下,联邦大语言模型应运而生并得到越来越多的关注.由于大型语言模型庞大的数据... 随着人工智能技术的快速发展,各类大型语言模型不断涌现.但是专用大语言模型的用户及数据集大多具有隐私性和安全性要求,数据安全隐私问题亟待解决.在此背景下,联邦大语言模型应运而生并得到越来越多的关注.由于大型语言模型庞大的数据量以及联邦学习的分布式架构,海量的参与节点与云服务器间进行大量的模型交换会产生较高的通信成本.为提升模型收敛速率,研究人员对面向联邦大语言模型训练的传输优化技术展开了研究.文章分析了联邦大语言模型所面临的挑战;综述了基于模型微调的传输优化方法、基于模型压缩的传输优化方法以及基于分布式并行处理的传输优化的优化问题;介绍了已有的开源联邦大语言模型以及所用到的传输优化技术,并对未来研究方向进行了展望. 展开更多
关键词 联邦学习 大语言模型 传输优化 通信开销 模型压缩
上一页 1 下一页 到第
使用帮助 返回顶部