文章预览
图源: Hugging Face。https://huggingface.co/blog/evaluating-llm-bias 导语 随着文字和图像生成大模型的普及,人工智能正在悄然改变我们的生活和工作方式。但是,新的问题也随之出现:这些生成式大模型中是否存在社会性风险,例如偏见、歧视? 本次分享,我们邀请到加州大学洛杉矶分校(UCLA)计算机系博士生、亚马逊Alexa生成式人工智能(AGI)研究组实习生——万奕欣,与我们讨论一下问题:(1)生成式大模型中是否存在偏见问题?(2)怎样衡量模型中的偏见?(3)如何解决模型中的偏见? 除了大语言模型中的偏见问题,本次还分享了模型偏见的新兴究研究领域:文本生成图片大模型中的偏见问题。 本次分享不只是关于技术问题的讨论,它还鼓励我们思考如何在快速变化的AI领域中,确保技术的发展与人类的价值观和社会正义相协调。通过这次深入的
………………………………