讨论计算机视觉、深度学习和自动驾驶的技术发展和挑战
目录
相关文章推荐
今天看啥  ›  专栏  ›  大语言模型和具身智体及自动驾驶

BiGym:基于演示的移动双手操作基准

大语言模型和具身智体及自动驾驶  · 公众号  ·  · 2024-10-27 01:46
    

文章预览

24年7月来自伦敦帝国学院的 Dyson 机器人学习实验室论文“BiGym: A Demo-Driven Mobile Bi-Manual Manipulation Benchmark”。 BiGym,是一个用于移动双手演示-驱动机器人操作的新基准和学习环境。BiGym 具有 40 个不同的家庭环境任务,从简单的目标到达,到复杂的厨房清洁。为了准确捕捉现实世界的表现,为每个任务提供人工收集的演示,反映现实世界机器人轨迹中的各种模式。BiGym 支持各种观察,包括本体感受数据和视觉输入(例如 RGB)以及来自 3 个摄像头视图的深度。为了验证 BiGym 的可用性,在环境中对最先进的模仿学习算法和演示驱动的强化学习算法进行了彻底的基准测试,并讨论了未来的机会。 机器学习基准对于衡量和理解研究算法的进展具有重要意义。值得注意的基准包括用于图像理解的 ImageNet [1]、用于自动驾驶的 KITTI [2] 和用于基于语言的问答的 SQu ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览