文章预览
在过去的二十年里,Palantir 通过我们的原则、公开立场和产品推动科技的负责使用。这在我们当前与组织合作通过 Palantir AIP 发挥 AI 力量的工作中尤为重要。从确保安全到提高可解释性,再到解决公平性和偏见问题,Palantir AIP 为用户提供了一套先进功能,以在实践中应用负责任的 AI。在这个博客系列中,我们将分享我们如何直接在 Palantir AIP 的产品开发中注入 AI 伦理与负责任 AI 的承诺。 在本文中,我们解决了关于大模型安全常见对话中的一个挑战:幻觉。 Hallucinations 幻觉 “幻觉”是指生成式AI模型回答虚假或误导性信息时发生[1]。例如,您可能询问一个大型语言模型(LLM)今天的天气情况,它回答说阳光明媚、温暖,尽管您正坐在一场倾盆大雨中。或者,您可能要求提供关于某一研究领域的学术文献参考,结果发现该模型返回了一个由真实信息
………………………………