文章预览
点击上方“ 计算机视觉life ”,选择“星标” 快速获得最新干货 论文信息 题目:FAST-LIVO2: Fast, Direct LiDAR-Inertial-Visual Odometry 机构:香港大学MaRS Lab,中国电子科技集团信息科学研究院 作者:Chunran Zheng, Wei Xu, Zuhao Zou, Tong Hua, Chongjian Yuan, Dongjiao He, Bingyang Zhou, Zheng Liu, Jiarong Lin, Fangcheng Zhu, Yunfan Ren, Rong Wang, Fanle Meng, Fu Zhang 原文链接:https://arxiv.org/pdf/2408.14035 源码链接:https://github.com/hku-mars/FAST-LIVO2 视频demo 多传感器融合遇到的挑战 视觉SLAM利用成本较低的CMOS传感器和镜头,能够建立精确的数据关联,从而实现一定水平的定位精度。丰富的颜色信息进一步增强了语义感知,通过利用这种增强的场景理解,深度学习方法能够用于提取稳健的特征以及过滤动态物体。视觉SLAM的局限性: 缺乏直接的深度测量,需要通过如三角测量或深度过滤等操作来同时优化
………………………………