文章预览
↑ 点击 蓝字 关注极市平台 作者丨Haiyang Yu等 来源丨AI生成未来 编辑丨极市平台 极市导读 为了在文本边缘区域实现更好的分割性能,本文提出了边缘感知Transformer(EAFormer),该方法明确预测文本边缘,并利用这些边缘来引导后续的编码器。 >> 加入极市CV技术交流群,走在计算机视觉的最前沿 文章链接: https://arxiv.org/pdf/2407.17020 git链接: https://hyangyu.github.io/EAFormer/ 亮点直击 为了在文本边缘区域实现更好的分割性能,本文提出了边缘感知Transformer(EAFormer),该方法明确预测文本边缘,并利用这些边缘来引导后续的编码器。 针对COCO_TS和MLT_S数据集的标注质量较低的问题,对这些数据集进行了重新标注,以提高EAFormer在这两个数据集上的实验结果的可靠性。 在六个场景文本分割基准上的广泛实验表明,所提出的EAFormer能够达到最先进的性能,尤其
………………………………