今天看啥  ›  专栏  ›  RandomGenerator

LLM 可控生成初探

RandomGenerator  · 公众号  ·  · 2023-07-10 19:25
在做基于 LLM 的应用开发过程中,有几个常见的挑战,包括:如何避免“胡说八道”,提升模型输出的可靠性/稳定性,控制模型的计算开销和响应速度等等。目前主流的解决手段包括:更好的 prompt 设计通过 retrieval 来做增强与外部工具的结合流程编排与产品设计考虑使用 fine tune 模型或混合模型应用通过 prompt 来优化之前的文章里也分享过上面的 prompt 技巧,虽然可以提升模型输出的质量,但也会导致响应速度和开销的增加,目前还没看到比较“完美”的解决方案。最近在研究模型输出的可控性过程中,也发现了一些有意思的工作,还挺有启发。这里做一个简单的总结,与大家一起分享交流。guardrails提到可控生成,最直接想到的步骤可能是:首先通过 prompt 告知 LLM 我们所需要的返回格式,并进行生成。通过一些规则来检查返回结果,如果不符合格 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照