专栏名称: CVer
一个专注侃侃计算机视觉方向的公众号。计算机视觉、图像处理、机器学习、深度学习、C/C++、Python、诗和远方等。
今天看啥  ›  专栏  ›  CVer

Transformer高频面试题!!

CVer  · 公众号  ·  · 2024-08-01 13:11

文章预览

点击下方 卡片 ,关注“ CVer ”公众号 AI/CV重磅干货,第一时间送达 这两天求职群分享了很多大厂的计算机视觉算法的面试真题,其中就有“手撕Transformer”: 要知道近年来特别出现了很多 Transformer面试题 (毕竟当前AI顶流)。这里 Amusi特别分享15道Transformer高频面试题 ( 求职群里有数百道Transformer题目,还有答案 ),希望对你有所帮助。 介绍Transformer和ViT 介绍Transformer的QKV 介绍Layer Normalization Transformer训练和部署技巧 介绍Transformer的位置编码 介绍自注意力机制和数学公式 介绍Transformer的Encoder模块 介绍Transformer的Decoder模块 Transformer和Mamba(SSM)的区别 Transformer中的残差结构以及意义 为什么Transformer适合多模态任务? Transformer的并行化体现在哪个地方? 为什么Transformer一般使用LayerNorm? Transformer为什么使用多头注意力机制? Transformer训练的Dropout是 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览