研究概要 |
本研究の全体構想は,ロボットに組み込んだワーキングメモリの中身を映像的表現によって他者に伝える"シースルーワーキングメモリ"というコンセプトを提案し,人とロボットの新しいコミュニケーションの可能性を探るとともに,ワーキングメモリを視聴して確かめるという新しいアプローチによって心や意識の研究に取り組もうとするものである.本研究課題では,(1)Pearsonのワーキングメモリモデルをロボットに実装し,人に伝わりやすい形で映像的表現し,(2)ロボットの語意獲得を例題として,シースルーワーキングメモリの有効性を示すことを目標とする.2010年度は,申請者がこれまで構築してきた視覚的注意モデルを用いて,注意が一定時間向けられたオブジェクトを画像認識し,最大で4個のオブジェクトの位置と外観をワーキングメモリ(Visual CacheとInner Scribe)に記録するプログラムを作成した.ワーキングメモリ内のオブジェクトは時間経過に応じて消えていくが,定期的に注意が向けられることでキャッシュ内に維持される.ただし,現時点では心象映像(Visual Buffer)の構成はできておらず,ワーキングメモリの構成要素をそれぞれ表示するに留まっている.実験では,被験者にロボットに対して物の使い方を教えてもらい,ロボット上のモニタにシースルーワーキングメモリを表示したものと単にロボット視点映像を表示した場合で比較した.その結果,提案手法のほうがロボットに対して人間的で生き物らしく感じさせるという傾向がみられた.また,ロボットの語意獲得に関連してもシミュレータを用いた実験を行い,ロボットの考えている内容が表示されたほうが被験者(言葉を教える側)の不安感が減るという傾向がみられた.
|