注册
登录
专栏名称:
深度学习与NLP
专注深度学习、NLP相关技术、资讯,追求纯粹的技术,享受学习、分享的快乐。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
高分子科学前沿
·
智能植入,动态修复——中山大学/北京大学团队 ...
·
9 小时前
高分子科学前沿
·
西工大张秋禹、张建波/港中大唐本忠院士、赵征 ...
·
9 小时前
广州初高君
·
中考化学方程式汇总,非常齐全,强烈建议转发打印!
·
昨天
高分子科学前沿
·
华东师范大学,Nature ...
·
3 天前
高分子科学前沿
·
港中大(深圳)唐本忠院士、赵征教授团队与港中 ...
·
4 天前
今天看啥
›
专栏
›
深度学习与NLP
最近大厂推出的Prompt Cache到底是个啥?
深度学习与NLP
·
公众号
· · 2024-09-24 00:00
文章预览
1. Claude模型推出Prompt Cache 早在8月份,Anthropic的Claude模型 API 推出了提示缓存功能现( Prompt Cache) 已在Anthropic API上推出,Prompt Cache可以让开发者在调用API时,复用缓存的上下文,从而降低成本、降低延时。根据官方文档,号称可以降低90%的成本,85%的延迟。 今天这篇文章,我们来看看 Claude API 所使用的 Prompt Cache到底是何方神圣,能带来这么大的收益。 2. 为什么要提出Prompt Cache? 大语言模型应用开发者应该都有感觉,在具体应用中,往往会有大量的提示词可以被复用,比如:System Prompt、RAG中的文档(特别是长上下文)、提示词模板等。 正因为有这些可以被复用的提示词存在,Prompt Cache就有了其存在的价值。Prompt Cache正式利用了LLM提示词中的可复用部分,在内存中预算计算好,并在这些部分出现在提示词中时直接复用,从而降低延迟。 目前在单 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
高分子科学前沿
·
智能植入,动态修复——中山大学/北京大学团队《AFM》:可“自更新”植入器械界面,助力糖尿病患者对抗感染并促软/硬组织愈合!
9 小时前
高分子科学前沿
·
西工大张秋禹、张建波/港中大唐本忠院士、赵征《自然·通讯》:荧光聚酰亚胺光驱动器!
9 小时前
广州初高君
·
中考化学方程式汇总,非常齐全,强烈建议转发打印!
昨天
高分子科学前沿
·
华东师范大学,Nature Sustainability!
3 天前
高分子科学前沿
·
港中大(深圳)唐本忠院士、赵征教授团队与港中大(深圳)附属二院王绍娟院长团队《自然·通讯》:酶促催化精准调控分子聚集
4 天前