文章预览
图源:MIT News。https://news.mit.edu/2024/large-language-models-use-surprisingly-simple-mechanism-retrieve-stored-knowledge-0325 导语 大型语言模型(LLMs)中的诚实与帮助性议题与计算社会科学紧密相关,它们共同探索了人工智能在理解和生成人类语言时的道德和行为准则。现有基于代理的模型虽然能够模拟个体行为及其相互作用,但它们在捕捉人类复杂行为和观点形成过程方面存在局限性。因此,如何增强这些LLM代理与人类行为的一致性成为一个待解决的问题。 本次分享,我们邀请到普林斯顿大学计算机科学系博士生刘晨,探讨大型语言模型在面临诚实和助人这两大对齐核心目标矛盾时的行为;我们还邀请到威斯康星大学麦迪逊分校认知神经科学博士 & 计算机科学硕士Yun-Shiuan (Sean) Chuang,讨论使用LLM代理准确模拟人类社会观点动态的潜力和局限性。 本期读书会时间为:6
………………………………