如何将ORB-SLAM3与robot_localization结合

问题描述 投票:0回答:1

提前感谢您给我的任何建议。我对 ROS 比较陌生,面临以下问题。到目前为止,还没有人能给我答案。

我正在使用 robots_localization 包来估计我的机器人与 odom 框架的姿态。我成功融合了来自车轮里程计和 IMU 的数据。

我的机器人有一个鱼眼相机,我使用 ORB-SLAM3 生成环境地图(尽管我有预期的缩放问题)并获得相机相对于惯性参考系的姿态估计。

两者单独工作都很好。我正在使用 ROS1。

从robot_localization包中我得到了odom和base_link框架之间的转换。从 ORB-SLAM3 我得到了地图和相机帧之间的转换。

我想将两者结合在一起,以便更好地估计机器人姿势。

但是,我不太确定该怎么做。

我一直在网上搜索,但没有找到任何将 ORB-SLAM3 与 robots_localization 结合使用的示例。

另外,我不太确定这是否可能。

本质上,我想了解如何使用两者来估计 odom-->base_link 和 map-->odom 变换,以及获取这些变换的管道中缺少什么。

任何帮助将不胜感激。我也很高兴上传我的 ekf(由 robots_localization 实现)和我的视觉单目 slam(使用 ORB-SLAM3 实现)的 yaml 配置文件。

谢谢你,蒂莫西

  1. 我将来自车轮里程计的原始数据与 IMU 融合。我使用了robot_localization包并获得了tf变换odom->base_link;
  2. 我使用orb3_slam_ros(单目)来估计tf变换world->camera_frame
ros orb slam visual-odometry
1个回答
0
投票

你能做到这一点吗?我也在尝试做同样的事情,刚接触ROS,并且一直在网上搜索,到目前为止没有结果。

© www.soinside.com 2019 - 2024. All rights reserved.