专栏名称: 亲爱的数据
顺着数据写人工智能, 顺着技术写产业落地。
今天看啥  ›  专栏  ›  亲爱的数据

前所未有:GPU集群恶意代码注入?模型投毒?​资源消耗攻击?

亲爱的数据  · 公众号  ·  · 2024-10-19 14:03
    

文章预览

一场悲剧, 一场闹剧, 若干年后, 可能会被认定为国内“AI安全第一案”。 闻所未闻,骇人听闻,匪夷所思。 我所熟悉的, 和AI有关, 和安全有关的团队, 都在第一时间讨论和复盘。 攻击者手段多,隐蔽性强, 甚至有一部分专家直接告诉我: 防不住,根本防不住。 一方面,工作人员通宵达旦解决故障, 很难想到故障来自“内鬼”。 另一方面,训练大模型是大系统工程, 周期长,环节多, 哪怕没有恶意破坏, 动不动就会出现故障。 甄别出哪些是恶意“故障”非常困难, 防不住?真这样吗? (一)漏洞与损失 1. 自“古”以来,AI大模型训练没有出过这么大的安全事件。 2. 本质是,在AI大模型的 训练 中 搞 五花八门的破坏 。 3. 并不是多有技术含量的“黑客”招数。 4. 但是, 很隐秘 ,不易被发现。 5. 从“古”至今,IT专家们(当然包 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览