文章预览
本文 约2900字 ,建议阅读 6 分钟 本文介绍的是我们的一篇收录于 CVPR 2024 的论文。 本文介绍的是我们的一篇收录于 CVPR 2024 的论文。为了解决某个机构或边缘设备上数据缺乏的问题,一方面我们通过联邦学习获得来自所有参与设备的 任务相关的共享知识 ;另一方面我们将该共享知识作为预训练生成模型(如 Stable Diffusion)的输入来生成 任务相关的全局数据 ;最后我们将生成的数据传输到机构或边缘设备上并通过额外的有监督学习任务,将该全局数据注入到边缘模型中。 我们称这一过程为“知识迁移链路(KTL)”,并在每一轮联邦学习过程中进行一次知识迁移。此过程中生成模型只作推理不做训练,这种利用预训练模型的方式对资源的需求较少。 论文标题: An Upload-Efficient Scheme for Transferring Knowledge From a Server-Side Pre-trained Generator to Clients in Heterogen
………………………………