主要观点总结
本文介绍了一篇发表于NIPS 2022的论文《Alleviating the Sample Selection Bias in Few-shot Learning by Removing Projection to the Centroid》。论文针对少样本学习中的样本选择偏差问题,提出了一种称为任务中心投影去除(TCPR)的方法。该方法通过去除任务中心方向上的特征投影,提高了分类准确性。论文在多个数据集上评估了TCPR的效果,并进行了消融实验。
关键观点总结
关键观点1: 论文背景
深度学习在图像分类上取得显著进展,但获取大规模标记数据集的成本高昂,引发对少样本学习的关注。少样本学习中,支持数据有限,当支持数据不足以代表其类别时,会出现样本选择偏差问题。
关键观点2: TCPR方法概述
TCPR方法通过三个主要步骤解决样本选择偏差问题:1) 寻找基类邻居;2) 估计任务中心;3) 消除对任务中心的投影。其核心思想是通过支持特征远离任务中心,提高分类准确率。
关键观点3: 实验与结果分析
论文在四个常用的FSL数据集上评估了TCPR方法,包括miniImageNet、tieredImageNet、CUB、Meta-dataset。实验结果表明TCPR对分类效果有稳定提升。此外,论文还进行了估计任务中心方法对比和消融实验,探讨了超参数选择以及不同类别数量和支持样本数量的影响。
文章预览
该论文发表于NIPS 2022,题目为《Alleviating the Sample Selection Bias in Few-shot Learning by Removing Projection to the Centroid》。 哈尔滨工业大学的Jing Xu为此文第一作者,哈尔滨工业大学的徐增林为此文的通讯作者。 论文链接: https://papers.nips.cc/paper_files/paper/2022/hash/84b686f7cc7b7751e9aaac0da74f755a-Abstract-Conference.html 论文概要 少样本学习(FSL)旨在实现视觉模型处理没有足够数据支持学习的新任务。虽然现在已有一些少样本学习方法,但仍存在当支持数据很少时模型会产生偏差的问题,也就是样本选择偏差问题,而当支持样本越接近任务中心时,这个问题越明显。为缓解该问题,本研究提出了一个称为任务中心投影去除(TCPR)的简单的方法。TCPR使用与支持特征相似的基础特征来估计任务中心,将任务中所有图像特征去除沿着任务中心方向的特征维度,在多个数据集上均
………………………………