文章预览
背景 近期,通用AI Agent产品Manus因其强大的功能备受关注。然而,在上线不久后,用户仅通过简单的提示词注入攻击,便成功获取了Manus的提示词、运行代码及底层模型信息。这一事件暴露了其安全防护的薄弱环节,并引发了行业对AI应用安全的深刻反思。 事实上,Manus的提示词泄露并非孤立事件。随着AI技术的发展,大语言模型(LLMs)开始广泛应用,类似的智能体安全风险正逐渐显现。在此次事件上,Manus的破解过程简单到令人咋舌:用户仅需请求输出`/opt/.manus/`目录下的文件,便获得了大量关键信息。由此可见,AI 智能体的安全风险已从理论探讨转变为现实挑战,亟需在权限管控、数据隔离与安全审查机制上进一步加强防护。 事件名称 AI风险分析 | Manus泄露事件引发智能体安全思考 风险映射 应用安全-训练阶段-LLMs插件:业务过度代理 身份安全-
………………………………