文章预览
【LLM】终于有人将大模型可视化了 为什么说“又”呢?因为前面已经分享过一个可视化工具了,与那个工具相比, 今天分享的Transformer Explainer更直观 、 交互性更强。 在线地址: h ttps://poloclub.github.io/transformer-explainer/ 源码: h ttps://github.com/poloclub/transformer-explainer 论文:https://arxiv.org/pdf/2408.04619 为什么人们热衷于可视化Transformer? 一是因为它太重要了,现如今几乎所有的大模型都是以Transformer为基础,而且不光是在NLP领域,在CV中也开始崭露头角。 二是因为它的结构比较复杂,传统的模型构成比较单一,多由重复的卷积层或者MLP层构成,而Transformer则是由Encoder或者Decoder组成,每个der又由多个Block级联而成,每个Block又包括Embedding、自注意力、多头注意力、交叉注意力 、 层归一化 、 残差链接 、 MLP或者MoE层。 通过可视化技术不仅可以清晰了解模型
………………………………