主要观点总结
本文主要介绍了美国商务部下属的NIST发布的人工智能编程标准,包括有效性和可靠性、安全、安全且有弹性、可追责且透明、可解释与可理解、增强个人隐私和公平等方面的特性和要求。文章还提到了关于人工智能的风险管理,包括部署后的人工智能系统的有效性和可靠性的评估,以及针对不同类型的安全风险量身定制人工智能风险管理方法等内容。
关键观点总结
关键观点1: 人工智能编程标准
NIST发布的人工智能编程标准包括多个方面,如有效性和可靠性、安全、可追责和透明等,以确保人工智能系统的可信度和安全性。
关键观点2: 风险管理
人工智能系统的风险管理非常重要,需要考虑到各种潜在的安全风险,如可能造成严重伤害或潜在死亡的风险,需要在设计时进行充分的规划和设计,预防可能导致系统危险的故障或条件。
关键观点3: 透明度和可解释性
透明度和可解释性是人工智能系统的重要特性,可以提高人工智能系统的信心,并有助于操作或监督人工智能系统的人深入了解系统的功能性和可信度。
关键观点4: 隐私和公平
隐私和公平是人工智能系统设计、开发和部署中需要重视的问题。隐私增强技术和公平的标准可能复杂且难以定义,需要在不同文化和应用中加以考虑。
关键观点5: 社区交流
为了推进AI大模型在金融尤其是风险管理领域的落地,创建了相关的微信群,欢迎广大风险管理从业者和AI大模型科学家加入,共同打造一个讨论风险管理的专业社区。
文章预览
编程按: 英文原文由隶属于美国商务部的国家标准与技术研究院(National Institute of Standards and Technology,NIST)于2023年1月份发布,版本信息是1.0版本。本期是连载的第三期。 3.1 有效且可靠 验证是通过提供客观证据确认特定预期使用或应用的要求已得到满足。 部署不准确、不可靠或不能很好地推广到训练数据的人工智能系统会创造和增加负面风险,降低人工智能的可信度。 可靠性在同一标准中定义为“项目在给定时间间隔内,在给定条件下无故障执行所需的能力”。可靠性是人工智能系统在预期使用条件下以及在给定时间段内(包括系统的整个生命周期)整体正确运行的目标。 准确性和鲁棒性有助于人工智能系统的有效性和可信度,但在人工智能系统中可能会产生矛盾。 准确性定义为“观察、计算或估计结果与真实值或被接受为真实值的接近程
………………………………