咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >面向用户的支持用户掉线的联邦学习数据隐私保护方法 收藏

面向用户的支持用户掉线的联邦学习数据隐私保护方法

User-oriented Data Privacy Preserving Method for Federated Learning that Supports User Disconnection

作     者:路宏琳 王利明 LU Honglin;WANG Liming

作者机构:中国科学院信息工程研究所北京100093 中国科学院大学网络空间安全学院北京100049 

出 版 物:《信息网络安全》 (Netinfo Security)

年 卷 期:2021年第21卷第3期

页      面:64-71页

学科分类:08[工学] 0839[工学-网络空间安全] 081201[工学-计算机系统结构] 0812[工学-计算机科学与技术(可授工学、理学学位)] 

基  金:国家重点研发计划[2017YFB0801901] 

主  题:联邦学习 深度学习 隐私保护 差分隐私 用户掉线 

摘      要:联邦学习是解决多组织协同训练问题的一种有效手段,但是现有的联邦学习存在不支持用户掉线、模型API泄露敏感信息等问题。文章提出一种面向用户的支持用户掉线的联邦学习数据隐私保护方法,可以在用户掉线和保护的模型参数下训练出一个差分隐私扰动模型。该方法利用联邦学习框架设计了基于深度学习的数据隐私保护模型,主要包含两个执行协议:服务器和用户执行协议。用户在本地训练一个深度模型,在本地模型参数上添加差分隐私扰动,在聚合的参数上添加掉线用户的噪声和,使得联邦学习过程满足(ε,δ)-差分隐私。实验表明,当用户数为50、ε=1时,可以在模型隐私性与可用性之间达到平衡。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分