学术讲座—优化联邦学习:一种新的DP-FedSAdam算法增强隐私和性能
发布者: 科研处 更新日期: 2024-05-08 访问次数: 217
讲座题目优化联邦学习:一种新的DP-FedSAdam算法增强隐私和性能 Optimizing Federated Learning: A Novel DP-FedSAdam Algorithm for Enhanced Privacy and Performance
主办单位计算机科学与数学学院
联合主办单位
讲座人程海讲座人
职称
副高主持人毛国君
讲座类型自然科学讲座对象全校师生时间2024-05-11 10:30
地点校学术报告厅




程海,工学博士,博士后,波士顿大学访问学者,黑龙江大学副教授,硕士研究生导师。研究方向:保密通信,人工智能安全,嵌入式系统。参与国家自然科学基金项目和国防相关项目多项,主持并完成省级科研项目1项,厅级项目1项,校级项目2项,博士后基金1项,主持研究方向相关横向项目多项,出版学术著作1部,出版教材1部,第一作者或者通讯作者发表SCI、EI检索论文20余篇。
讲座
主要内容
联邦学习允许多方以保护隐私的方式协作训练共享模型。但是,联邦学习涉及服务器和参与者之间的频繁通信,这可能会损害客户端的隐私。为了解决这个问题,客户级差分隐私联邦学习(DPFL)引入了本地更新的片段和噪声添加来改善隐私。然而,这种增加的噪声会降低模型的性能。在本研究中,我们提出了一种基于SAM+ADAM优化器的优化算法,旨在减少噪声影响和通信轮数,以提高资源效率。我们提出的DP-FedSAdam算法,结合锐度感知最小化,创建了一个具有更好的稳定性和抗权重扰动的模型,最大限度地减少了本地更新规格,增强了对客户级差分隐私噪声的弹性。从而实现了最优的模型参数,减少了资源的使用。大量的实验和对比分析验证了该算法与传统方法相比的优越性。