关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

2024 || LOPA: Prompt调整卷土重来!

深度图学习与大模型LLM  · 公众号  ·  · 2024-07-24 14:39

文章预览

保持参数高效的同时提升提示调整(Prompt Tunning, PT)的性能。 基本信息和摘要 论文题目 Prompt Tuning Strikes Back: Customizing Foundation Models with Low-Rank Prompt Adaptation Arxiv: https://arxiv.org/pdf/2405.15282 作者及研究单位 Abhinav Jain, Rice University Swarat Chaudhuri, UT Austin Thomas Reps, University of Wisconsin-Madison Chris Jermaine, Rice University 解决问题 提示调整 (Prompt Tuning, PT)是一种简单且参数效率高的参数高效微调(PEFT)方法,它通过在输入层添加特定任务的前缀向量来实现个性化。然而,提示调整在性能上通常不如其他PEFT方法,如LoRA。 本文提出了LOPA方法,旨在 解决 PT 相对于 LoRA的性能差异 ,它在 保持参数效率 的同时,通过实例感知的提示调整来提高性能。 摘要 本文提出了一种名为Low-Rank Prompt Adaptation (LOPA)的新方法,旨在通过 低秩提示调整 来定制基础模型(Foundation Model ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览