文章预览
联邦学习是一种去中心化的机器学习方法,其中客户端在本地训练模型,并共享模型更新以开发全局模型。这使得低资源设备能够协作构建高质量的模型,而无需直接访问原始训练数据。然而,尽管仅共享模型更新,联邦学习仍然面临若干隐私漏洞。其中一个主要威胁是 成员推断攻击 ,这种攻击通过确定某个特定示例是否属于训练集来针对客户端的隐私。这些攻击可能会泄露现实应用中的敏感信息,例如医疗系统中的医疗诊断。尽管关于成员推断攻击已有大量研究,但针对联邦学习中的此类攻击的全面和最新综述仍然缺失。为了填补这一空白,我们根据这些攻击在联邦学习中的特点,对成员推断攻击及其相应的防御策略进行了分类和总结。我们介绍了现有攻击研究的独特分类法,并系统地概述了各种反制措施。在这些研究中,我们详细分析了不
………………………………