专栏名称: GiantPandaCV
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
目录
相关文章推荐
今天看啥  ›  专栏  ›  GiantPandaCV

CUDA-MODE 课程笔记 第13课:Ring Attention

GiantPandaCV  · 公众号  · 3D  · 2024-09-29 23:26
    

文章预览

我的课程笔记,欢迎关注:https://github.com/BBuf/how-to-optim-algorithm-in-cuda/tree/master/cuda-mode 第13课,Ring Attention 课程笔记 Overview部分主要介绍了长上下文Transformer模型及其相关应用的几个主题。具体内容如下: 动机:长上下文Transformer模型及其应用 回顾:普通注意力机制、在线Softmax、对数和指数计算 Ring Attention Striped Attention Flash Decoding 这张slides展示了一下当前流行的LLM的上下文长度越来越长,特别的Gemini 1.5 Pro将上下文长度扩展到了1M。 这张Slides介绍了长上下文模型(Long-context Magic)的能力和应用,主要内容如下: 左侧展示了一个视频时间轴,从00:00:00到00:59:59,表明模型可以处理长达1小时的视频内容。 中间部分展示了一个问答示例: 用户问:"人的车里有多少个柠檬?" 几个不同的AI模型(GPT-4V, Gemini Pro Vision, Video-LLaVA)都无法正确回答这个问题。 而L ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览