2009 Fiscal Year Annual Research Report
実世界動的相互作用下での随伴性検出と利用を導く意図理解を通じた語彙獲得発達モデル
Project/Area Number |
09J57061
|
Research Institution | Osaka University |
Principal Investigator |
中野 吏 Osaka University, 工学研究科, 特別研究員(DC1)
|
Keywords | 共同注意 / 複数機能の同時学習 / 複数モダリティの同期性 / 認知発達ロボティクス |
Research Abstract |
人とのやりとりを通じて,視線追従および語彙の相互促進的同時学習が可能なマルチモーダル共同注意獲得システムを拡張するため,観測される人の顔情報と注視すべき位置との対応関係を学習する視線追従機能において,粗い顔情報(頭方向を表す情報)の特徴空間と細かい顔情報(視線方向を表す情報)の特徴空間の異なる表現系をもつ特徴空間の同時学習機能を加えた,これにより,異なるモダリティの注意機能の相互促進だけでなく,同一モダリティ内の粒度の異なる注意機能の相互促進的学習を実現した.このモデルでは,人の頭方向を利用した視線追従能力が先に獲得され,徐々に視線情報を利用した視線追従能力も獲得し,それらの二つの注意機能を並行して利用することで視線追従による共同注意の精度を高めるようになるという学習過程を示ている.これによって,人の幼児の視線追従の発達過程へより相同するモデルに拡張できた. また,本研究で提案しているモデルでは,対象物を見ている人の顔情報と対象物の名称を発話している音声情報は常に同期して学習者に与えられていることを仮定していた.しかし,人の幼児が親とやりとりを行う場面において,親が幼児に対し,常に対象物を見ながらその名前を発話しているとは考えにくい,そこで,視線追従獲得前の幼児のような視線をランダムに動かすロボットに,おもちゃの名前を覚えてもらうようなやりとりを被験者に行ってもらう実験を行い,学習すべき顔情報と音声情報のロボットへの提示の同期率について調べた.その結果,人は対象物の名前を発話する前後3秒以内で対象物を見ていることが多いことがわかった.これにより,実際の人とのやりとりからも顔情報と音声情報がある程度同期していることが言え,本研究の提案モデルによる同時学習が人とのやりとりを通じて可能であることわかった.
|
Research Products
(6 results)