专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
目录
今天看啥  ›  专栏  ›  数据派THU

​CVPR 2024 | 迁移预训练生成模型中的知识到边缘小模型

数据派THU  · 公众号  · 大数据  · 2024-07-05 17:00

文章预览

本文 约2900字 ,建议阅读 6 分钟 本文介绍的是我们的一篇收录于 CVPR 2024 的论文。 本文介绍的是我们的一篇收录于 CVPR 2024 的论文。为了解决某个机构或边缘设备上数据缺乏的问题,一方面我们通过联邦学习获得来自所有参与设备的 任务相关的共享知识 ;另一方面我们将该共享知识作为预训练生成模型(如 Stable Diffusion)的输入来生成 任务相关的全局数据 ;最后我们将生成的数据传输到机构或边缘设备上并通过额外的有监督学习任务,将该全局数据注入到边缘模型中。 我们称这一过程为“知识迁移链路(KTL)”,并在每一轮联邦学习过程中进行一次知识迁移。此过程中生成模型只作推理不做训练,这种利用预训练模型的方式对资源的需求较少。 论文标题: An Upload-Efficient Scheme for Transferring Knowledge From a Server-Side Pre-trained Generator to Clients in Heterogen ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览