文章预览
题目:Improving Semantic Segmentation via Efficient Self-Training 提高语义分割的效率自训练方法 作者:Yi Zhu; Zhongyue Zhang; Chongruo Wu; Zhi Zhang; Tong He; Hang Zhang; R. Manmatha; Mu Li; Alexander Smola 摘要 从全卷积网络(FCN)的开创性工作开始,语义分割领域取得了显著进展。然而,深度学习模型通常需要大量像素级的标注来训练精确且稳健的模型。鉴于分割掩膜的标注成本过高,本文引入了一种自训练框架,以利用从未标注数据生成的伪标签。为了解决语义分割中的数据不平衡问题,我们提出了一种质心采样策略,在每个训练周期中均匀选择每个类别的训练样本。我们还引入了一种快速训练计划,以减轻计算负担。这使我们能够探索使用大量伪标签的可能性。 我们的基于质心采样的自训练框架(CSST)在 Cityscapes 和 CamVid 数据集上取得了最先进的结果。在 PASCAL VOC 2012 测试
………………………………