文章预览
来源:投稿 作者:寒武纪 编辑:学姐 首先简单摸个底: (1)自我介绍 (2)项目介绍,问的很细,过程中不停打断提问 (3)算法竞赛项目,整体数据处理流程、模型效果评估方法、心得体会 接着问了一些八股文: 简单介绍一下 BERT 和 Transformer - BERT 是一种基于Transformer架构的预训练语言模型,由Google在2018年提出。BERT通过双向编码器来学习词汇和句子的表示,从而在各种自然语言处理任务中取得了显著的成功。 - Transformer 是一种基于注意力机制的深度学习模型,由Google提出并广泛应用于自然语言处理任务。它摒弃了传统的循环神经网络(RNN)和长短时记忆网络(LSTM),采用自注意力机制实现序列建模,使得模型能够并行计算,有效地捕捉长距离依赖关系,从而提高了模型训练的效率和准确性。Transformer已经成为许多自然语言处理任务中的基础
………………………………