文章预览
大模型智能|分享 来源 | 量子位 作者 | 明敏 一口气生成2万字,大模型输出也卷起来了! 清华 & 智谱AI最新研究,成功让GLM-4、Llama-3.1输出长度都暴增。 相同问题下,输出结果直接从1800字增加到7800字,翻4倍。 要知道,目前大模型的生成长度普遍在2k以下。这对于内容创作、问题回答等都存在影响,可能导致模型回答问题不全面、创造性降低等。 该研究由智谱AI创始人、清华大学教授李涓子和唐杰共同领衔。 论文及代码都已放在GitHub上开源。 有网友已经抢先体验。LongWriter-llama3.1-8b可生成万字长文《罗马帝国衰落史》,在MacBook Pro 2018(32GB)上就能运行。 输出内容很准确,可以得A++。 01 9B模型搞定万字输出 本项研究主要包括3方面工作。 分析文本生成长度限制因素 提出AgentWrite 扩展LLM输出窗口大小 首先,研究人员构建了一个测试工具LongWrite-Ruler
………………………………