咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >非独立同分布数据下联邦学习算法中优化器的对比分析 收藏

非独立同分布数据下联邦学习算法中优化器的对比分析

Comparative Analysis of Optimizers in Federated Learning Algorithms Under Non-independent and Identically Distributed Data

作     者:傅刚 FU Gang

作者机构:福州职业技术学院特殊教育系福州350108 

出 版 物:《计算机系统应用》 (Computer Systems & Applications)

年 卷 期:2024年第33卷第5期

页      面:228-238页

学科分类:12[管理学] 1201[管理学-管理科学与工程(可授管理学、工学学位)] 081104[工学-模式识别与智能系统] 08[工学] 080203[工学-机械设计及理论] 0835[工学-软件工程] 0802[工学-机械工程] 0811[工学-控制科学与工程] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

主  题:联邦学习 个性化联邦学习 优化器 非独立同分布 

摘      要:在联邦学习环境中选取适宜的优化器是提高模型性能的有效途径,尤其在数据高度异构的情况下.本文选取FedAvg算法与FedALA算法作为主要研究对象,并提出其改进算法***通过令客户端在等待期间继续本地训练,有效降低了由于同步需求导致的资源浪费.在此基础上,本文重点分析这3种算法中优化器的作用,通过在MNIST和CIFAR-10数据集上测试,比较了SGD、Adam、ASGD以及AdaGrad等多种优化器在处理非独立同分布(Non-IID)、数据不平衡时的性能.其中重点关注了基于狄利克雷分布的实用异构以及极端的异构数据设置.实验结果表明:1) pFedALA算法呈现出比FedALA算法更优的性能,表现为其平均测试准确率较FedALA提升约1%;2)传统单机深度学习环境中的优化器在联邦学习环境中表现存在显著差异,与其他主流优化器相比,SGD、ASGD与AdaGrad优化器在联邦学习环境中展现出更强的适应性和鲁棒性.

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分