文章预览
!! 介绍:本项目是作者们根据个人面试和经验总结出的 大模型(LLMs)面试准备的学习笔记与资料,该资料目前包含 大模型(LLMs)各领域的 面试题积累。 Github 地址:https://github.com/km1994/LLMs_interview_notes !! NLP 面无不过 面试交流群 (注:人满 可 添加 小编wx:yzyykm666 加群!) 大模型(LLMs)基础面 目前 主流的开源模型体系 有哪些? prefix Decoder 和 causal Decoder 和 Encoder-Decoder 区别是什么? 大模型LLM的 训练目标 是什么? 涌现能力是啥原因? 为何现在的大模型大部分是Decoder only结构? 简单 介绍一下 大模型【LLMs】? 大模型【LLMs】后面跟的 175B、60B、540B等 指什么? 大模型【LLMs】具有什么优点? 大模型【LLMs】具有什么缺点? 点击查看答案 大模型(LLMs)进阶面 LLMs 复读机问题 什么是 LLMs 复读机问题? 为什么会出现 LLMs 复读机问题? 如何缓解 LLMs 复读机问
………………………………