文章预览
鉴于机器人在现实世界中采取的行动具有重要影响,必须确保它们的部署在设计上尽可能安全和可信。因此,本论文解决了一个称为分布偏移的问题。当深度学习系统暴露于与其训练数据分布不同的数据时,就会发生分布偏移,从而导致不可预测和意外的部署场景。本论文针对语义分割任务,研究了如何检测由于分布偏移而导致的错误,以防止这些危险场景的发生。 在讨论了分布不确定性的本质,即由于分布偏移引起的错误原因,以及现有文献之后,本论文提出了三种方法,这些方法在驾驶数据的语义分割过程中进行分布不确定性估计。 第一种方法将问题视为大规模的分布外检测问题,其中使用大规模图像数据集训练一个分割神经网络,以区分分布内和分布外的训练实例。该训练方法涉及对比损失函数和数据增强程序,以减少分布内和分布外实
………………………………