文章预览
2024-06-19 07:42
本条微博链接
【Gemini API的上下文缓存功能:通过缓存输入Tokens降低AI工作流的成本和延迟,适用于需要重复引用大量初始上下文的场景,支持自定义存留时间(TTL),适用于聊天机器人、视频分析、文档查询等应用场景,上下文缓存支持 Gemini 1.5 Pro 和 Gemini 1.5 Flash】《上下文缓存 | Google AI for Developers | Google for Developers》 网页链接 #机器学习# #人工智能# #上下文缓存# #AI工作流# #成本优化#
………………………………