提前感谢您给我的任何建议。我对 ROS 比较陌生,面临以下问题。到目前为止,还没有人能给我答案。
我正在使用 robots_localization 包来估计我的机器人与 odom 框架的姿态。我成功融合了来自车轮里程计和 IMU 的数据。
我的机器人有一个鱼眼相机,我使用 ORB-SLAM3 生成环境地图(尽管我有预期的缩放问题)并获得相机相对于惯性参考系的姿态估计。
两者单独工作都很好。我正在使用 ROS1。
从robot_localization包中我得到了odom和base_link框架之间的转换。从 ORB-SLAM3 我得到了地图和相机帧之间的转换。
我想将两者结合在一起,以便更好地估计机器人姿势。
但是,我不太确定该怎么做。
我一直在网上搜索,但没有找到任何将 ORB-SLAM3 与 robots_localization 结合使用的示例。
另外,我不太确定这是否可能。
本质上,我想了解如何使用两者来估计 odom-->base_link 和 map-->odom 变换,以及获取这些变换的管道中缺少什么。
任何帮助将不胜感激。我也很高兴上传我的 ekf(由 robots_localization 实现)和我的视觉单目 slam(使用 ORB-SLAM3 实现)的 yaml 配置文件。
谢谢你,蒂莫西
你能做到这一点吗?我也在尝试做同样的事情,刚接触ROS,并且一直在网上搜索,到目前为止没有结果。