研究概要 |
ヒューマノイドの知能ロボットカーネルのモジュール群とそれらを統合した対人行動創成に必要となる判断解釈系の基礎システムを評価するために,感覚・記憶・判断・動作系の各機能を組み合わせた様々な行動を実現し,カーネルモジュールの評価と強化を行い,統合法が有効であるかの評価・確認を行った. a)手にとった物体を観察し記憶モデルを構築する視覚主導型能動的記憶行動の実現 物体の記憶モデルを粒度と情報量に応じた記述を導入し,視覚を用いた距離情報に基づく大まかな形状獲得,力覚・接触覚を用いた詳細形状の触獲得,ならびに重量等の物理情報の獲得とレベルに分けた記憶獲得機能を実現した. b)物が出す音と視覚観察状況との関係を記憶する視聴覚記憶行の実現 聴覚を用いた音源定位・推定機能と視覚機能の時間相関の解析に基づいた連想記憶を構築し,視野外の音源に対して注意をむけ記憶を構築する行動,あるいは対象物体をたたいて音を出し視覚認識を補助する行動を実現した. c)包丁などの道具操作を例にした視覚力覚を利用した両腕協調行動の実現 力学モデルを含んだブレインシミュレータを構築し,空間モデル記憶とダイナミクスを考慮した動作計画法に基づき力の調節が必要な道具利用動作を実現した.また,道具や操作対象の観測と制御のための注意観測機能を構築した. d)視聴覚と平行覚の予測統合に基づいたバランス反射動作の実現 視覚・力覚による環境状態の変化の観察に基づき未来状態を予測し,これに基づく動作制御を反射モジュールの協調・統合により実現した.状態変化の経験からより精度の高い予測と動作が可能な学習型の反射動作機能を実現した. e)確率的空間記憶モデルと対話型行動決定モデルに基づいた対人対話行動の実現 センサ情報から環境知識の確率的な内部表現を構築する確率的空間記憶モデルと,ベイジアンネットワークに基づいたネットワーク型タスク表現を用いた対話型行動決定モデルを構築し,これらを統合させることで状況と文脈を考慮した対話を発生し,人間の指示の理解に基づいた行動を実現した.
|