文章预览
在人工智能(AI)技术日新月异的今天, 大型语言模型(LLM) 的崛起无疑为智能应用带来了前所未有的飞跃。从聊天机器人到智能助手,从文本生成到代码编写,LLM正逐步渗透到我们生活的方方面面。然而,随着这些模型的广泛应用,一系列潜在的 安全风险 也逐渐浮出水面。近日,一起 大模型训练遭“投毒”的事件 更是震惊了整个 AI圈 ,引发了人们对 LLM安全性 的深刻反思。而Anthropic的最新研究,更是揭示了LLM背后隐藏的危机。 一、大模型训练遭“投毒”,损失惨重
就在不久前,某大厂的大模型训练集群遭遇了前所未有的恶意攻击。据悉,攻击者利用 Huggingface 的 “load ckpt”函数漏洞 ,成功地将恶意代码注入到了模型中。这不仅 导致了模型权重的篡改、训练参数的修改,还使得攻击者能够轻松地访问和修改其他用户的模型文件。 更为
………………………………