文章预览
纯靠 Transformer 的架构或数据驱动模型,解决不了推理问题。 作者丨马蕊蕾 编辑丨陈彩娴 大模型的安全研究,没有赶上 AI 的发展速度。 7 月微软蓝屏事件,像是新老交替之际的一记警钟。每一项新技术的发明,都伴随着一种新责任的出现。假使 AI 集成到每个应用,那么发生在微软的蓝屏事件,同样也会成为 AI 潜在的危险。 “大模型能力的提升并不能代表它的安全也能得到改进,大家还是要有意识的发现模型潜在的风险和漏洞。” ICML 2024 大会期间,AI 科技评论访谈 ICML Tutorial Chair 李博时,她如是说道。 李博现任伊利诺伊大学香槟分校(UIUC)和芝加哥大学教授,目前处于学术休假期间在工业界访问。她重点研究机器学习、计算机安全、隐私和博弈论,大部分工作都在探索机器学习系统对各种对抗性攻击的漏洞,并致力于开发现实世界的可信机器
………………………………