文章预览
↑ 点击 蓝字 关注极市平台 本次分享我们邀请到了 悉尼科技大学ReLER Lab在读博士陈牧 ,为大家详细 介绍他们中稿ACM Multimedia 2024 Oral的工作 : 本次分享介绍一种新颖的多模态场景适应的探索方法: DCF , Transferring to Real-World Layouts: A Depth-aware Framework for Scene Adaptation ,这项工作被 ACM Multimedia 2024 提名为口头报告( Oral Presentation , 3.97% )。 DCF 通过手工设计基于深度感知的类别过滤器,手动将自动驾驶场景的物体分类为近景,中景,远景,并且将不符合预先定义分布的数据进行过滤,实现由虚拟到真实世界分布的转变。提出的方法显著提高了小物体类别的性能,并能灵活地迁移到不同模型,取得 SOTA 结果。本次分享对想了解视觉场景理解及领域自适应方向的同学会很有帮助。 论文地址: https://arxiv.org/abs/2311.12682 代码地址: https://github.com/chen74
………………………………