联邦学习是一种高效的分布式机器学习方法,其中多个设备使用自己的本地数据进行分布式模型训练,不需要交换本地数据,仅通过交换模型参数来构建共享的全局模型,从而保护用户的隐私。为了平衡模型性能和通信延迟,在半同步联邦学习场景下,...联邦学习是一种高效的分布式机器学习方法,其中多个设备使用自己的本地数据进行分布式模型训练,不需要交换本地数据,仅通过交换模型参数来构建共享的全局模型,从而保护用户的隐私。为了平衡模型性能和通信延迟,在半同步联邦学习场景下,使用权重参数建立了一个最小化模型性能和聚合时间的加权和的优化问题。优化变量包括进行全局模型更新的聚合时间、用户调度以及参与上传的用户的带宽和发射功率,通过使用交替方向乘子法(Alternating Direction Method of Multipliers, ADMM)将所提混合整数非线性规划(Mixed Integer Non-Linear Programming, MINLP)问题分解为两个子问题进行求解。仿真实验证明,所提算法能够以牺牲4%模型性能为代价,降低73%的聚合时间,显著提高了通信效率。展开更多
文摘联邦学习是一种高效的分布式机器学习方法,其中多个设备使用自己的本地数据进行分布式模型训练,不需要交换本地数据,仅通过交换模型参数来构建共享的全局模型,从而保护用户的隐私。为了平衡模型性能和通信延迟,在半同步联邦学习场景下,使用权重参数建立了一个最小化模型性能和聚合时间的加权和的优化问题。优化变量包括进行全局模型更新的聚合时间、用户调度以及参与上传的用户的带宽和发射功率,通过使用交替方向乘子法(Alternating Direction Method of Multipliers, ADMM)将所提混合整数非线性规划(Mixed Integer Non-Linear Programming, MINLP)问题分解为两个子问题进行求解。仿真实验证明,所提算法能够以牺牲4%模型性能为代价,降低73%的聚合时间,显著提高了通信效率。