专栏名称: 人工智能前沿讲习
领先的人工智能知识平台
今天看啥  ›  专栏  ›  人工智能前沿讲习

【他山之石】finetune后的模型参数,还可以继续怎么玩?

人工智能前沿讲习  · 公众号  ·  · 2024-11-07 18:00
    

文章预览

“他山之石,可以攻玉”,站在巨人的肩膀才能看得更高,走得更远。在科研的道路上,更需借助东风才能更快前行。为此,我们特别搜集整理了一些实用的代码链接,数据集,软件,编程技巧等,开辟“他山之石”专栏,助你乘风破浪,一路奋勇向前,敬请关注! 看到了一篇很有意思的paper,文章对预训练和finetune之后的模型参数之差( task vector = 两个weight按位相减)做了分析,发现了一些奇妙的用法:通过对不同下游任务的task vectors进行简单的计算,组合得到的新参数(构成一个线性子空间),可以扩展出更多的使用场景,如:功能抑制(遗忘),多任务学习,迁移学习。 Editing Models with Task Arithmetic: https://arxiv.org/abs/2212.04089 以下, 我们记task vector 为 我们可以构造一系列新的参数 1. 反向即遗忘 也就是 显然,这可以让模型的效果变差,有多差 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览