今天看啥  ›  专栏  ›  安全客

AI驱动机器人暴关键漏洞,可致机器人失控执行危险行为

安全客  · 公众号  ·  · 2024-10-18 16:39

文章预览

近日,宾夕法尼亚大学的工程研究团队揭示了 AI驱动机器人中存在的关键漏洞,这些漏洞可以被恶意操控,导致机器人执行危险任务,包括引爆炸弹 。研究团队在这项研究中开发了一种名为RoboPAIR的算法,成功实现了在三种不同机器人系统上的100%“越狱”率,包括Unitree Go2四足机器人、Clearpath Robotics Jackal轮式车辆以及NVIDIA的Dolphin LLM自驾模拟器。 乔治·帕帕斯教授在声明中表示:“我们的研究表明,目前大型语言模型与物理世界的集成并不够安全。” 研究的第一作者亚历克斯·罗比指出,解决这些漏洞不仅仅需要简单的软件补丁,还需要全面重新评估AI在物理系统中的整合。 越狱,简单来说,就是绕过AI系统内置的安全协议和伦理约束 ,这一概念在iOS早期已被广泛应用,爱好者们通过巧妙的方法获取手机的root访问权限,从而执行苹果未批准的操作 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览