Deep Learning によるロボットの自己位置推定

近年,掃除ロボットや案内ロボットなどの移動ロボットが人間社会に浸透し,利用されるようになってきました.そのようなロボットにとって自身の位置を把握することは必要不可欠な能力です.この課題はロボットの自己位置推定と呼ばれ,これまで多くの研究が行われてきました.ロボットの位置を推定する方法には,GPSなどの外部装置によって推定する方法や距離センサを用いる方法がありますが,多くのロボットが現実世界に進出することを考えた場合には,安価な観測装置を用いてロボットが内部的に自己位置推定を行うことが適切であると考えられます.

本研究では,一つのカメラを持つロボットを考え,ロボットの一人称視点画像とそのときの自己位置との関係を学習する畳み込みニューラルネットワーク(CNN)を用いて自己位置推定を行います.世界がブロック単位で構成されているゲーム空間であるMinecraft(https://minecraft.net, http://planetminecraft.com/project/monumental-imperial-city)上で実験を行い,未知のデータに対する精度,ノイズに対する頑健性の検証を行いました.
 

 


 
また,ロボットが動きながら得られる複数の画像情報を自己位置推定に利用するために,CNNに再帰的な構造を追加したリカレント型畳み込みニューラルネットワーク(RCNN)を自己位置推定に用いて,そのときの性能を検証しました.実験の結果,RCNNはCNNによる一枚の画像からの推定よりも,また,CNNによる複数の推定結果の平均よりも,高い精度で推定可能であることを示しました.さらに,実際のロボットを用いて実環境で実験を行い,CNNとRCNNによる自己位置推定の精度検証を行っています.