今天看啥  ›  专栏  ›  斌叔OKmath

gpt-fast简单高效的 pytorch-native Tra-20240730082056

斌叔OKmath  · 微博  ·  · 2024-07-30 08:20

文章预览

2024-07-30 08:20 本条微博链接 gpt-fast 简单高效的 pytorch-native Transformer 文本生成。 特点: 延迟极低 1000 行 Python 代码 除了 PyTorch 和 sentencepiece 之外没有其他依赖项 int8/int4 量化 推测解码 张量并行性 支持 Nvidia 和 AMD GPU 这并非旨在成为“框架”或“库” - 它旨在展示使用原生 PyTorch 可以获得什么样的性能 :) 请根据需要复制粘贴和分叉。 有关此代码库内容的深入介绍,请参阅此博客文章。 支持的模型 LLaMA 系列 请查看此页面 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览