专栏名称: 深度之眼
入行人工智能,学算法公式,写毕业论文,看经典书籍,刷全球公开课,就来深度之眼
今天看啥  ›  专栏  ›  深度之眼

又被Transformer秀到了!结合小样本学习发A会!

深度之眼  · 公众号  ·  · 2024-10-17 20:35

文章预览

在有限的数据资源下,为了训练出高性能的机器学习模型,我们常会考虑 Transformer+小样本学习 。 这是因为Transformer能从有限的数据中提取更多有用的信息,这样与小样本学习结合,可以更有效的帮助我们 提高模型的性能,加速训练和推理 ,模型也能拥有 更灵活的架构和更强的迁移学习能力 。 因此 Transformer+小样本学习也是当前机器学习领域的一个研究热点, 有不少顶会成果,比如CVPR 2024的PriViLege框架以及AAAI 2023的SCAT网络。 目前这个方向正在快速发展中,建议想发顶会的同学围绕预训练策略、微调方法、数据增强技术等方面进行挖掘。当然为了方便各位,我这边也整理好了 10篇 Transformer+小样本学习新论文 给大家参考,代码基本都有~ 扫码添加小享, 回复“ 小样本T ” 免费获取 全部论文+开源代码 Pre-trained Vision and Language Transformers Are Few-Shot Incr ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览