探索は、ロボット工学における自律ナビゲーションの重要な側面である。同時定位マッピング(SLAM)は、ロボットが未知の環境をナビゲートし、マッピングすることを可能にする基本的な技術である。視覚的同時定位マッピング(Visual Simultaneous Localization and Mapping、VSLAM)は、SLAMの特殊なタイプで、ロボットがカメラからの視覚入力を使ってリアルタイムで周囲をマッピングし、自身の位置、すなわちオドメトリを推定することを可能にする。この技術は、火星探査機、火星ヘリコプター、地上ロボット、水中ロボット、掃除機ロボットなど、さまざまなアプリケーションで広く使用されている。 深度画像のみを用いた自律移動ロボット(AMR)の自律ナビゲーションのために、飛行時間(ToF)カメラとRTAB-Mapがどの程度うまく機能するか調査が行われた。ToFカメラは赤外線(IR)と深度画像の両方を撮影する。深度画像は3D点群作成に利用される。RTAB-Mapは、この3D点群と車輪オドメトリを利用して、AMRの自律航法用に補正されたオドメトリと2D占有グリッドマップを出力する。
Real-Time Appearance-Based Mapping (RTAB-Map)は、グラフベースのSLAM技術である。RTAB-Mapは、大規模かつ長時間のオンラインマッピングに対応するために、アピアランスベースのループ閉鎖検出アプローチとメモリ管理アプローチを組み込んでいる。オドメトリ(AMRの姿勢)はRTAB-Mapの外部入力である。したがって、車輪オドメトリ、視覚オドメトリ、ICPオドメトリなど、アプリケーションに適したオドメトリを使用することができます。RTAB-Mapでは4種類の入力設定が可能です:
図2はRTAB-Mapのさまざまなブロックを示している。RTAB-Mapは3次元点群とオドメトリを入力として使用する。さらに、odmからbase_linkへの変換とbase_linkからcamera_linkへの変換の2つの入力変換が必要です。RTAB-Mapはマップからodm変換、2D占有グリッドマップ、補正されたオドメトリを出力します。RTAB-Mapノードは以下のブロックで構成される:同期、短期記憶(STM)、長期記憶(LTM)、ループ閉鎖と近接検出、グラフ最適化、グローバルマップの組み立て。
rtabmap、ToFカメラ、ホイール-IMU融合オドメトリを使用してAMRの自律航法を実行するためのパイプライン全体を図3に示す。ホイール-IMU融合オドメトリは、ロバストなオドメトリを得るために、拡張カルマンフィルターの助けを借りて、ホイールエンコーダーデータとIMUデータを融合することで得られる。見てわかるように、7つのノードがあります:ToFカメラノード、image_procノード、点群ノード、rtabmapノード、ホイール-IMU融合オドメトリノード、Nav2ノード、Rvizノードです。次の段落では、これらのノードの機能を説明します。
パイプラインの最初のノードはToFカメラノードで、赤外線画像と深度画像の両方をキャプチャします。キャプチャされた画像は、image_procノードによって、接線方向と半径方向の歪みを除去するために平行化されます。点群ノードは平行化された深度画像から3D点群を生成します。wheel-IMU融合オドメトリノードは、ホイールエンコーダとIMUデータを使用してAMRのオドメトリを推定します。rtabmapノードは、wheel-IMU融合オドメトリと生成された点群を使用して、2D占有グリッドマップと補正されたオドメトリ(つまり姿勢)を生成します。Nav2ノードは、生成された占有グリッドマップとオドメトリを使用して、AMRのパスプランニングと自律ナビゲーションに使用されるコストマップを生成します。最後に、Rvizノードが可視化ツールとして使用され、IR画像、オドメトリ、占有グリッドマップを表示します。また、AMRのゴールポーズの設定も可能です。全体として、このパイプラインは様々なセンサーとノードを組み合わせ、AMRの自律的なナビゲーションを可能にします。
図3は、AMRと、AMRに搭載されたリアルセンス・カメラを通してAMRが見ているもの、そしてメッシュとして作成された3D点群マップを示している。図4は、ゴール状態、計画された経路、およびAMRが計画された経路をたどってゴール状態に無事到着した状態で、作成されたマップを表示している。
さらに、ToFカメラの深度画像を平行化して生成した点群では、実世界の平坦な面が曲面として表示されてしまう。したがって、この問題を解決するために後処理が必要となる。図6は、点群フィルタリング前とフィルタリング後の占有格子図である。青線はAMRの推定オドメトリを示す。
図6 左側のウィンドウは点群フィルタリング前の占有グリッドマップを示し、右側のウィンドウは点群フィルタリング後の占有グリッドマップを示している。両ウィンドウの青い線はAMRの推定オドメトリを示す。
図7は自律航法プロセスの様々な段階を示している。最初の左側の図は、AMRの現在のポーズで生成されたマップを示しています。このマップは、車輪とIMUの融合オドメトリと点群を使ってrtabmapノードによって生成されます。中央の2番目の図は、ゴール位置と計画された経路を示しています。Rvizでゴール位置が設定されると、Nav2ノードが占有グリッドマップとオドメトリポーズから生成されたコストマップを使用して経路を計画します。計画された経路はRvizに表示され、視覚化される。最後に、右側の3番目の図は、AMRがゴール状態に到達したことを示しています。パスが計画されると、AMRは補正されたオドメトリポーズとコストマップを使用して、ゴール位置に向かってナビゲートします。AMRは、車輪とIMUを融合したオドメトリと占有グリッドマップを使用して位置を継続的に更新し、計画された経路をたどるように軌道を調整します。AMRがゴール位置に到達すると停止し、ナビゲーションプロセスが完了します。
ToFカメラはRTAB-MapとNav2スタックに統合され、実験室環境でAMRを自律航行させる。AMRの自律航法にRTAB-MapとToFを使用する際、さまざまな課題に直面した。ToFが提供する赤外線画像と深度画像は、補正されていないと不正確なマップになる可能性があるため、補正する必要がある。平坦な物体が点群の中で湾曲して見えることがありましたが、点群の後処理によって解決しました。点群をRTAB-Mapに渡す前にフィルタリングする必要がある。並行して、AMRはマップを構築し、ToFからの深度画像とRTAB-Mapアルゴリズムを使って、安全なナビゲーションのためにマップ内の位置を特定した。また、ToFカメラとRTAB-Mapを用いたAMRの自律航行も成功した。今回の実験結果は、さまざまな商用ロボットシステムへのToFの展開を加速させるものと期待している。

サガル・ダトラクは2011年に電子科学の修士号を取得し、2021年に単眼視覚SLAMに関する博士論文を提出した。現在はアロー傘下のEinfochips社でVSLAM専門家として勤務し、視覚SLAMを用いた自律移動ロボットの自律航法に取り組んでいる。約6年間にわたり、組み込みシステムおよびロボティクス関連のプロジェクトに従事してきた。

ヴィシャール・ラバルは、電子通信工学の学士号を持つ。現在、Einfochips社(Arrow社)でシニア・エンベデッド・エンジニアとして勤務。IT分野での専門知識は約8年。C、C++、LINUX、ROS2の熟練プログラマー。現在は、ToFセンサーを用いたVisual SLAMを活用した自律型ロボットナビゲーションの研究を行っている。
当社の自動車ソリューション専門家による30分間の相談を予約する
バッテリー管理ソリューションの専門家による30分間の相談を予約する
当社の産業・エネルギーソリューション専門家による30分間の相談を予約する
専門家との30分間の相談を予約する


