研究概要 |
本研究では,視覚情報を始めとする感覚情報集合と移動ロボットの挙動(観察行動も含む)を規定する行動集合の存在のみを前提条件として,未知動的環境下で種々の行動を学習する実験を行った。具体例として,単眼視移動ロボットの障害物回避行動,目標物到達行動及びその統合タスクを扱った.以下が本年度の実績及び評価である. 1.視覚情報として明度相間に基づく実時間視覚追跡装置によりオプティカルフロー情報及び,対象物の運動情報をロボットの各種行動の際の状態変化ベクトルとして蓄え、各行動要素毎に,それらの情報を並べた状態・行動行列を構成し,主成分解析により,状態・行動行列を解析し,固有ベクトルと基の行動とのマッピング(スケーリング)を求める.この結果,視覚情報や運動情報の物理的な意味に関する知識なしに,回転と直進を表す二つの主成分が獲得され,ロボット自身が,自分のモーターコマンドのマップを獲得できた. 2.障害物の存在しない環境でのフロー情報を元に,簡単な差分演算で障害物候補を検出し,それらを画像上で捉えることで,強化学習における状態空間を構成し,障害物回避行動を獲得した.獲得された回避行動の価値関数を反転させることで,同様に目標物到達行動を獲得した. 3.獲得された行動の統合(切替え)条件を強化学習時の行動価値関数から導き出し,ロボットの行動系に密着した切替え条件を獲得した. 4.視覚行動を規定してロボットのモータ行動を学習により獲得したが,視覚行動そのものの学習及び他の視覚情報やセンサー情報による行動学習の課題が残った.
|