文章预览
↑↑↑↑↑ 点击上方 蓝色字 关注我们! 推文作者:陈泰劼,郭王懿,张云天 前言: 大语言模型(Large Language Models, LLMs)如 GPT (Generative Pre-trained Transformer) 系列,BERT (Bidirectional Encoder Representations from Transformers) 和其他基于 Transformer 的模型,近年来在人工智能领域取得了显著的进展。这些模型通过在大规模文本数据上进行预训练,学习了语言的深层次结构和语义,从而能够在没有特定任务训练的情况下,完成多种语言理解和生成任务。LLM的强大能力使其在如金融、法律、交通、教育等领域得到了广泛的探索和应用。目前在交叉领域对LLM的研究和应用从方法的角度来说可以分为两块: LLM Agent :将LLM视为决策智能体,使用提示词工程(Prompt Engineering)辅助智能体进行决策。 LLM微调 :将LLM视为编码器对输入特征进行特征提取,之后连接全连接层,针
………………………………