咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >非独立同分布数据下的自正则化联邦学习优化方法 收藏

非独立同分布数据下的自正则化联邦学习优化方法

Self-regularization optimization methods for Non-IID data in federated learning

作     者:蓝梦婕 蔡剑平 孙岚 LAN Mengjie;CAI Jianping;SUN Lan

作者机构:福州大学计算机与大数据学院福州350108 

出 版 物:《计算机应用》 (journal of Computer Applications)

年 卷 期:2023年第43卷第7期

页      面:2073-2081页

学科分类:08[工学] 081203[工学-计算机应用技术] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

主  题:联邦学习 非独立同分布 客户端偏移 正则化 分布式机器学习 隐私保护 

摘      要:联邦学习(FL)是一种新的分布式机器学习范式,它在保护设备数据隐私的同时打破数据壁垒,从而使各方能在不共享本地数据的前提下协作训练机器学习模型。然而,如何处理不同客户端的非独立同分布(Non-IID)数据仍是FL面临的一个巨大挑战,目前提出的一些解决方案没有利用好本地模型和全局模型的隐含关系,无法简单而高效地解决问题。针对FL中不同客户端数据的Non-IID问题,提出新的FL优化算法——联邦自正则(FedSR)和动态联邦自正则(Dyn-FedSR)。FedSR在每一轮训练过程中引入自正则化惩罚项动态修改本地损失函数,并通过构建本地模型和全局模型的关系来让本地模型靠近聚合丰富知识的全局模型,从而缓解Non-IID数据带来的客户端偏移问题;Dyn-FedSR则在FedSR基础上通过计算本地模型和全局模型的相似度来动态确定自正则项系数。对不同任务进行的大量实验分析表明,FedSR和Dyn-FedSR这两个算法在各种场景下的表现都明显优于联邦平均(FedAvg)算法、联邦近端(FedProx)优化算法和随机控制平均算法(SCAFFOLD)等FL算法,能够实现高效通信,正确率较高,且对不平衡数据和不确定的本地更新具有鲁棒性。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分