文章预览
在有限的数据资源下,为了训练出高性能的机器学习模型,我们常会考虑 Transformer+小样本学习 。 这是因为Transformer能从有限的数据中提取更多有用的信息,这样与小样本学习结合,可以更有效的帮助我们 提高模型的性能,加速训练和推理 ,模型也能拥有 更灵活的架构和更强的迁移学习能力 。 因此 Transformer+小样本学习也是当前机器学习领域的一个研究热点, 有不少顶会成果,比如CVPR 2024的PriViLege框架以及AAAI 2023的SCAT网络。 目前这个方向正在快速发展中,建议想发顶会的同学围绕预训练策略、微调方法、数据增强技术等方面进行挖掘。当然为了方便各位,我这边也整理好了 10篇 Transformer+小样本学习新论文 给大家参考,代码基本都有~ 扫码添加小享, 回复“ 小样本T ” 免费获取 全部论文+开源代码 Pre-trained Vision and Language Transformers Are Few-Shot Incr
………………………………