文章预览
随着基于人工智能(AI)的系统在高风险领域的持续快速采用,确保这些系统的可信度、安全性和可观察性变得至关重要。评估和监控AI系统不仅要针对准确性和质量相关指标,还要针对鲁棒性、偏见、安全性、可解释性以及其他负责任的AI维度。我们专注于大型语言模型(LLMs)和其他生成性AI模型,这些模型带来了额外的挑战,如幻觉、有害和操纵性内容以及版权侵犯。在伴随我们教程的这篇调查文章中,我们强调了与生成性AI系统相关的广泛危害,并调查了解决这些危害的最新方法(以及开放性挑战)。 我们翻译解读最新论文:大语言模型接地(Grounding)和评估综述,文末有论文链接。 1 引言 考虑到人工智能(AI)技术在我们日常生活中的日益普及,以负责任的方式开发和部署基础AI模型和系统,并确保它们的可信度、安全性和可观察性至关重要。
………………………………