gradslam(∇SLAM)开源:论文、代码全都有
团队对典型的 SLAM 方法 ICP-Odometry、 ICP-SLAM、 Kinect-Fusion 以及 PointFusion,实现为可微分计算图,并分析了每种方法与其不可微的对应方法的比较。
结果表明: 在 ICP-Odometry 和 ICP-SLAM 建图上的表现良好,绝对轨迹误差和相对位姿误差都呈现了一个较低的水平。 如下表所示:
每种方法不微分和微分后的效果对比
项目的官方地址:
https://github.com/gradslam/gradslam ,可以动手实操一下,感受 gradslam(∇SLAM) 方案的优势。
除了 Github 以外,我们还找到了一个方便操作的国内服务, 算力容器服务平台 OpenBayes 也上线了该模型训练教程, 可以直接在 JupyterNotebook 中运行。
根据下方提示,可访问 gradslam(∇SLAM)
的完整 JupyterNotebook
只需要 访问 openbayes.com 注册,就可以获得 CPU、NVIDIA T4、NVIDIA Tesla V100 等多种算力资源,目前在 内测期间每周都有免费算力额度发放至账户。
OpenBayes 除了提供各类算力容器,还有公开数据集、预训练模型、以及很多热门项目的 Jupyter Notebook,一键运行,方便操作。
注册说明
访问 openbayes.com
凭邀请码:HyperAI
注册新用户即可获得
免费 CPU 额度: 300 分钟/周
免费 vGPU 额度: 180 分钟/周
gradslam(∇SLAM)运行说明
注册 openbayes 完成后
访问控制台-公共教程
SLAM 技术已是业界公认的视觉领域空间定位技术的前沿方向视觉领域空间定位技术的前沿方向,从无人机到无人驾驶,从扫地机器人到 VR/AR 领域,这些热门领域都可看到 SLAM 的身影。
所以,如果你也想了解 SLAM 方向的最新科研成果,不如在这个周末好好研究gradslam(∇SLAM)项目。
论文地址:
http://montrealrobotics.ca/gradSLAM/paper.pdf
项目 GitHub 地址:
https://github.com/gradslam/gradslam
gradslam(∇SLAM)JupyterNotebook 地址:
https://openbayes.com/console/openbayes/containers/HoveymNsfrT
—— 完 ——