文章预览
本文分享慕尼黑大学, 萨尔大学和马普所合作的一篇ACL 2024 main 长文:Temperature-scaling surprisal estimates improve fit to human reading times – but does it do so for the “right reasons”? 本文分析了大语言模型与人类本身阅读的语言模型 (体现在人类对文字的信息处理困难度上) 的对齐性, 从probability distribution的角度通过一个简单的无需tune的恒定温度的temperature scaling, 可以较大提升语言模型与人类阅读语言模型的相似度。后续实验表明这种影响主要由multiple-token words的probability的更好拟合主导。 文章链接 (arxiv): https://arxiv.org/pdf/2311.09325 或点击文末 阅读原文 获取原文链接 数据代码链接 (Github): https://github.com/TongLiu-github/TemperatureScaling4RTs 01 背景简介 心理语言学中的一个重要发现是拥有更高surprisal的words需要更长信息处理时间。大语言模型 (LLMs) 可以被用来和人类本
………………………………