文章预览
10月18日,微信群中流传着一段对话,内容是某头部大厂的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。 (图片来自豆包AI生成) 该入侵的实习生(下文称之为T)毕业于国内顶尖的两所大学之一,曾频频出现在媒体上,分享其对大模型训练的观点和看法,属于十分活跃的“大模型明星员工”。 在入侵过程中,“T利用了HF的漏洞,在公司的共享模型里写入破坏代码,随机sleep,随机梯度数值,导致模型的训练效果忽高忽低,无法产生预期的训练效果,而且AML团队无法核查原因”。(根据聊天记录原文整理) ----- 1、sleep是大模型训练中的 训练策略, 目的在于 : 缓解过拟合: 通过在训练过程中周期性地停止对模型参数的更新,可以防
………………………………