今天看啥  ›  专栏  ›  爱可可-爱生活

本文提出了一种基于语义熵的 LLM 微调方法,有效地减少了长短文-20241024055147

爱可可-爱生活  · 微博  · AI  · 2024-10-24 05:51

文章预览

2024-10-24 05:51 本条微博链接 本文提出了一种基于语义熵的 LLM 微调方法,有效地减少了长短文本生成中的幻觉,并通过引入新的 AED 评估指标,在多个数据集上取得了优于现有方法的性能,其核心创新在于利用模型内省信息进行无监督的幻觉缓解。 [CL]《Fine-Tuning Large Language Models to Appropriately Abstain with Semantic Ent ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览