文章预览
点这里 👇 关注我,记得标星,么么哒~ 点击进入—> 【Mamba/多模态/扩散】交流群 这两天求职群分享了很多大厂的计算机视觉算法的面试真题,其中就有“手撕Transformer”: 要知道近年来特别出现了很多 Transformer面试题 (毕竟当前AI顶流)。这里 Amusi特别分享15道Transformer高频面试题 ( 求职群里有数百道Transformer题目,还有答案 ),希望对你有所帮助。 介绍Transformer和ViT 介绍Transformer的QKV 介绍Layer Normalization Transformer训练和部署技巧 介绍Transformer的位置编码 介绍自注意力机制和数学公式 介绍Transformer的Encoder模块 介绍Transformer的Decoder模块 Transformer和Mamba(SSM)的区别 Transformer中的残差结构以及意义 为什么Transformer适合多模态任务? Transformer的并行化体现在哪个地方? 为什么Transformer一般使用LayerNorm? Transformer为什么使用多头注意力机制? Transformer
………………………………