专栏名称: 专知
专知,为人工智能从业者服务,提供专业可信的人工智能知识与技术服务,让认知协作更快更好!
目录
今天看啥  ›  专栏  ›  专知

【ICML2024】PrE-Text:在大规模语言模型(LLM)时代对私人联邦数据进行语言模型训练

专知  · 公众号  ·  · 2024-06-07 14:00
    

文章预览

设备上的训练是目前在私人、分布式用户数据上训练机器学习(ML)模型的最常见方法。尽管如此,设备上的训练存在几个缺点:(1)大多数用户设备太小,无法在设备上训练大型模型,(2)设备上的训练对通信和计算资源需求很高,(3)设备上的训练难以调试和部署。为了解决这些问题,我们提出了Private Evolution-Text(PrE-Text),一种生成差分隐私(DP)合成文本数据的方法。首先,我们展示了在多个数据集上,使用PrE-Text合成数据训练的小模型(适合在用户设备上运行的模型)在实际隐私制度下(ϵ = 1.29,ϵ = 7.58)优于在设备上训练的小模型。我们在使用9倍更少的轮次、每轮次6倍更少的客户端计算和每轮次100倍更少的通信的情况下实现了这些结果。其次,在PrE-Text的DP合成数据上微调大型模型提高了大型语言模型(LLM)在相同隐私预算范围内的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览