本課題は,双腕移動マニピュレータを地上ロボットとし,ドローンとの機能連携を伴う協調システムの実現を目的としている.特にスマートグラスを装備したユーザが,指先指示による直感的操作でロボットへのfetchタスクを指示するシステムを構築した.そこでは,人ロボット間の対象物体の認知共有問題と,ロボットによるタスク遂行を複数ロボットの協調作業を伴う部分観測状況下における行動計画アーキテクチャを開発し,人ロボット(地上ロボットおよびドローン)共同作業システムを実現した.具体的には,双腕移動マニピュレータYoubotについて,片腕にカメラを装着し,もう片腕でYoLoを用いたビジュアルフィードバックによる物体把持動作を実装した.適切な把持姿勢を得るためにProjected Gradient制御で双腕協調制御を実装した.また,屋内環境においてVisual-SLAMを構築し,地上ロボットおよびドローンの安定した屋内環境でのホバリング制御を実装した.さらに,スマートグラスを介して,人とロボットが認識対象を共有する認知共有システムを開発し,人の直感的指示動作によるロボットへのフェッチタスクの遂行に成功した.さらに,部分観測の状況下における行動計画手法としてBehavior Treeを実装した.地上ロボットの視点からは見えにくい環境情報について,環境状態に関する相互情報量最大化を規範としたドローンによるvisual supportに基づくタスク遂行に成功した. これらにより,人ロボット混在環境において,人とロボット,ロボット間の機能的連携を伴うCyber-Physical Systemの実現のための要素技術が整備された.今後はさらにスマートグラスにMixed Realityを実装したインターフェース開発を進め,人とロボットが物理情報場の中で拡張身体感が得られるシステムの実現を目指すものである.
|