咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >基于差分隐私和秘密共享的多服务器联邦学习方案 收藏

基于差分隐私和秘密共享的多服务器联邦学习方案

A Multi-Server Federation Learning Scheme Based on Differential Privacy and Secret Sharing

作     者:陈晶 彭长根 谭伟杰 许德权 CHEN Jing;PENG Changgen;TAN Weijie;XU Dequan

作者机构:贵州大学公共大数据国家重点实验室贵阳550025 贵州大学大数据产业发展应用研究院贵阳550025 

出 版 物:《信息网络安全》 (Netinfo Security)

年 卷 期:2023年第23卷第7期

页      面:98-110页

学科分类:08[工学] 0839[工学-网络空间安全] 081201[工学-计算机系统结构] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家自然科学基金 

主  题:联邦学习 差分隐私 秘密共享 多服务器 隐私安全 

摘      要:联邦学习依靠其中心服务器调度机制,能够在数据不出域的前提下完成多用户的联合训练。目前多数联邦学习方案及其相关的隐私保护方案都依赖于单个中心服务器完成加解密和梯度计算,一方面容易降低服务器的计算效率,另一方面一旦服务器受到外部攻击或是内部的恶意合谋,则会造成大量的隐私信息泄露。因此文章将差分隐私和秘密共享技术相结合,提出了一种多服务器的联邦学习方案。对本地用户训练的模型添加满足(ε,δ)-近似差分隐私的噪声,以防止多个服务器合谋获取隐私数据。将加噪后的梯度通过秘密共享协议分发至多服务器,保证传输梯度安全的同时利用多个服务器均衡计算负载,提高整体运算效率。基于公开数据集对该方案的模型性能、训练开销和安全性能进行了实验,结果表明该方案拥有较高的安全性,且该方案相较于明文方案,性能损耗仅为4%左右,对比单个服务器的加密方案,该方案在整体的计算开销上减少了近53%。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分