专栏名称: 谷歌开发者
Google中国官方账号。汇集Android, Chrome, Angular等移动和网络开发技术、Google Play和AdMob等开发者成长、优化和变现平台。
今天看啥  ›  专栏  ›  谷歌开发者

"与 Google Cloud 一起捍卫大模型安全" 之 "保护你的大模型训练"

谷歌开发者  · 公众号  · 科技媒体  · 2024-11-08 17:30
    

文章预览

以下文章来源于谷歌云服务,作者 Google Cloud 杨鹏 Google Cloud 安全专家 大模型就像神通广大的 "哪吒",能写文章、画画、编程,无所不能。但如果哪吒被恶意操控,后果不堪设想!而且,培养这样的大模型需要大量投入,如果被 "黑化",损失也是巨大的。 这样看,大模型的安全关系到每个人,Google Cloud 提供了安全工具和服务,能保护大模型不被坏人利用,避免 "黑化"。 想了解更多关于大模型安全和 Google Cloud 的相关知识?请继续关注我们的系列文章! 大模型安全概要 生成式 AI 发展迅速,但也面临安全风险。MITRE ATLAS、NIST AI RMF 和 OWASP AI Top 10 等安全标准组织,总结了生成式 AI 的主要安全威胁,主要包括: ● 对抗性攻击: 攻击者扰乱模型输入或窃取模型信息,导致错误输出或信息泄露。 ●  数据投毒: 攻击者污染训练数据,使模型产生偏差或后 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览