研究概要 |
本研究の目的は,複数の人間あるいはロボットが協同で作業をする中で,人間の振舞いを記録し,その記録から人間の行動規範を入出力構造として分析し,さらにそれを自律ロボットシステムの行動プログラムとして移植する手法を確立することである,対象とするロボットシステムと人間では,身体,センサ,アクチュエータ等が異なっているので,高い臨場感が得られる没入型の遠隔操縦システムを構築し,それを介して人間を実環境で行動させる. 没入型の遠隔操縦システムを実現するために,ロボットに搭載されたカメラの全方位映像をパーソナルコンピュータに取り込み,画像の幾何学的な変換を行い,3枚のスクリーンに投影すべき画像を表示する.その画像の一部を切り出して3台の液晶プロジェクタに入力しスクリーンへ投影する.これによって,安価に臨場感・没入感の高い提示システムを実現できた. 当初の計画では,ロボットサッカー競技を題材としたタスクを設定する予定であったが,行動規範のモデル化が困難なことがわかった.そこで,まずは行動規範の抽出とロボットへの移植の方法を確立することを優先して,壁に囲まれた通路を移動するタスクを設定した,このタスクに対する人間の行動規範を,視覚情報を入力,操縦コマンドを出力として考える,人間がロボットを遠隔操縦する際の入出力データに対して,クラスタリングを行い,クラスタの分離面とクラスタごとのアフィンモデルを同定する.得られた結果をロボットの制御則として移植し,移動ロボットが自律走行できることを確認した。また,操縦者の違いやクラスタリングの条件の違いによる結果の差異について検討した.
|