文章预览
在 科 学 研 究 中 , 从 方 法 论 上 来 讲 , 都 应 “ 先 见 森 林 , 再 见 树 木 ” 。 当 前 , 人 工 智 能 学 术 研 究 方 兴 未 艾 , 技 术 迅 猛 发 展 , 可 谓 万 木 争 荣 , 日 新 月 异 。 对 于 A I 从 业 者 来 说 , 在 广 袤 的 知 识 森 林 中 , 系 统 梳 理 脉 络 , 才 能 更 好 地 把 握 趋 势 。 为 此 , 我 们 精 选 国 内 外 优 秀 的 综 述 文 章 , 开 辟 “ 综 述 专 栏 ” , 敬 请 关 注 。 对抗性攻击通过操纵输入数据来削弱模型的可用性和完整性,构成了机器学习推理过程中的重大安全威胁。随着大型视觉-语言模型(LVLMs)的出现,新的攻击向量如认知偏差、提示注入、和越狱技术也逐渐浮现。理解这些攻击对于开发更强健的系统和揭示神经网络的内部机制至关重要。然而,现有的综述通常侧重于攻击分类,缺乏全面深入的分析。当前研
………………………………