专栏名称: 安全内参
《安全内参》是专注于网络安全产业发展和行业应用的高端智库平台,致力于成为网络安全首席知识官。投稿&合作请邮件联系 anquanneican#163.com
今天看啥  ›  专栏  ›  安全内参

一句话让大模型聊天助手主动泄露对话敏感信息

安全内参  · 公众号  ·  · 2024-11-08 17:54
    

文章预览

关注我们 带你读懂网络安全 研究人员开发了一种算法,可将恶意提示词转换为一组隐藏指令,进而要求大模型将用户的对话敏感信息发送给攻击者; 该研究测试法国公司Mistral AI的LeChat和中国公司智谱的ChatGLM均受影响; 安全专家表示,这一方法大幅提升了大模型攻击的自动化水平。 前情回顾· 大模型安全动态 向ChatGPT植入恶意“长期记忆”,持续窃取用户输入数据 OpenAI反复修补未果的ChatGPT数据泄露漏洞是什么? 破解大模型安全护栏,让ChatGPT回答限制级问题 多模态大语言模型的致命漏洞:语音攻击 安全内参11月8日消息,与聊天机器人对话时,我们不可避免会暴露一些个人信息,如姓名、居住或工作的地点、兴趣爱好等。我们与大模型分享得越多,如果存在安全漏洞,个人信息被滥用的风险就越大。 加州大学圣地亚哥分校(UCSD)和新加坡南洋 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览