文章预览
AIGC Research 主编| 庄才林(Cailin Zhuang) 技术支持|胡耀淇(Yaoqi Hu) Topic: Image Generation|Safety|Textual Perturbations & Backdoor Attacks, Data Memory & Privacy, CivitAI & Bias Defending Text-to-image Diffusion Models: Surprising Efficacy of Textual Perturbations Against Backdoor Attacks 2024-08-28|ASUS, National Taiwan U, U Michigan|ECCV 2024 |⭐️ http://arxiv.org/abs/2408.15721v1 https://github.com/oscarchew/t2i-backdoor-defense 概述 文本到图像的扩散模型在生成逼真图像方面已被广泛采用,但近年来研究表明, 这些模型存在背后攻击的脆弱性 。这类攻击 通过注入文本触发器,操控生成的内容,导致其输出出现恶意修改 。尽管背后攻击对这些模型构成了显著威胁,但现有的防御措施研究仍然不足。本文针对这一空白, 提出了一种意想不到的简单防御策略——文本扰动,能有效减轻对文本到图像扩散模型的背后
………………………………