今天看啥  ›  专栏  ›  AI科技评论

UIUC 李博:如何探索大模型背后的安全隐忧?丨ICML 2024 直击

AI科技评论  · 公众号  ·  · 2024-07-31 17:41

文章预览

纯靠 Transformer 的架构或数据驱动模型,解决不了推理问题。 作者丨马蕊蕾 编辑丨陈彩娴 大模型的安全研究,没有赶上 AI 的发展速度。 7 月微软蓝屏事件,像是新老交替之际的一记警钟。每一项新技术的发明,都伴随着一种新责任的出现。假使 AI 集成到每个应用,那么发生在微软的蓝屏事件,同样也会成为 AI 潜在的危险。 “大模型能力的提升并不能代表它的安全也能得到改进,大家还是要有意识的发现模型潜在的风险和漏洞。” ICML 2024 大会期间,AI 科技评论访谈 ICML Tutorial Chair 李博时,她如是说道。 李博现任伊利诺伊大学香槟分校(UIUC)和芝加哥大学教授,目前处于学术休假期间在工业界访问。她重点研究机器学习、计算机安全、隐私和博弈论,大部分工作都在探索机器学习系统对各种对抗性攻击的漏洞,并致力于开发现实世界的可信机器 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览