学术讲座—优化联邦学习:一种新的DP-FedSAdam算法增强隐私和性能
发布者:
科研处
更新日期:
2024-05-08
访问次数:
217
讲座题目 | 优化联邦学习:一种新的DP-FedSAdam算法增强隐私和性能 Optimizing Federated Learning: A Novel DP-FedSAdam Algorithm for Enhanced Privacy and Performance |
---|
主办单位 | 计算机科学与数学学院 |
---|
联合主办单位 |
|
---|
讲座人 | 程海 | 讲座人 职称 | 副高 | 主持人 | 毛国君 |
---|
讲座类型 | 自然科学 | 讲座对象 | 全校师生 | 时间 | 2024-05-11 10:30 |
---|
地点 | 校学术报告厅 |
---|
讲 座 人 简 介 | 程海,工学博士,博士后,波士顿大学访问学者,黑龙江大学副教授,硕士研究生导师。研究方向:保密通信,人工智能安全,嵌入式系统。参与国家自然科学基金项目和国防相关项目多项,主持并完成省级科研项目1项,厅级项目1项,校级项目2项,博士后基金1项,主持研究方向相关横向项目多项,出版学术著作1部,出版教材1部,第一作者或者通讯作者发表SCI、EI检索论文20余篇。 |
---|
讲座 主要内容 | 联邦学习允许多方以保护隐私的方式协作训练共享模型。但是,联邦学习涉及服务器和参与者之间的频繁通信,这可能会损害客户端的隐私。为了解决这个问题,客户级差分隐私联邦学习(DPFL)引入了本地更新的片段和噪声添加来改善隐私。然而,这种增加的噪声会降低模型的性能。在本研究中,我们提出了一种基于SAM+ADAM优化器的优化算法,旨在减少噪声影响和通信轮数,以提高资源效率。我们提出的DP-FedSAdam算法,结合锐度感知最小化,创建了一个具有更好的稳定性和抗权重扰动的模型,最大限度地减少了本地更新规格,增强了对客户级差分隐私噪声的弹性。从而实现了最优的模型参数,减少了资源的使用。大量的实验和对比分析验证了该算法与传统方法相比的优越性。 |
---|
|
|