今天看啥  ›  专栏  ›  AI寒武纪

上下文长度1000万不是梦!加州伯克利推KVQuant量化技术,LLM内存占用砍到骨折

AI寒武纪  · 公众号  ·  · 2024-08-20 06:01

文章预览

加州伯克利大学的 AI 大佬们又搞事情了!这次他们祭出了一个名为 KVQuant 的大杀器,专治LLM内存焦虑症!😎 paper:https://arxiv.org/pdf/2401.18079 分析表明,对于较小的批处理规模,LLM推理过程的主要瓶颈在于内存带宽。随着计算速度和内存速度之间的差距不断扩大,这个问题只会越来越严重。而对于长序列长度,内存瓶颈主要来自于缓存键(Key)和值(Value)激活的内存需求。为了实现高效的长序列长度推理,压缩键值缓存至关重要 为了让LLM能处理更长、更复杂的任务,比如长篇小说总结、代码分析什么的,上下文窗口长度必须得加大!可是,内存不够怎么办?😰 别慌!加州伯克利出品,必属精品!KVQuant 就是一种专门针对LLM键值缓存(Key-Value Cache)的量化方法。它采用了几个超级厉害的技术,把内存占用量直接砍到骨折,同时还能保证模型精度几 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览