研究概要 |
視線・顔方向による意図伝達,印象伝達のモデル化を図るため,擬人化エージェントを用いて,視線と顔の向き表情の相互依存関係を解析した.視線の向き,顔の向き,表情の相互干渉によりコミュニケーションの意味が変化し,複雑な印象を生成できることを明らかにした.また,ユーザの働きかけにたいして擬人化エージェントが応えるインタラクションはユーザに与える好印象を強調することを示した. 視線一致を実現する映像対話シミュレータを試作し,映像コミュニケーション実験を行った結果,視線がコミュニケーション開始の相互の確認のために有効に機能していることを明らかにした.視線不一致条件では相互の接続確認に時間がかかり,視線以外の呼びかけ,ジェスチャなどを用いる必要があることがわかった.これらの行動は対面対話とは異なり,ユーザの負荷になるものであると考えられる.また,被面接者の映像が映っているディスプレイと面接者の距離を変化させる模擬面接実験を実施した.被面接者の瞬目回数を計測した結果,映像対話では顔の大きさに瞬目回数が依存せず対面とは異なる側面があることが明らかとなった. 水平・垂直方向に配置された指標を同時に測定可能な「多指標視線入力視線測定装置」を開発した.また,視線入力を用いたメール操作,TV鑑賞,視線と音声を併用したWebブラウザなどのアプリケーションを提案・開発した. 今後は,3名以上の会話における視線の役割を広く解析し,またfMRIなど生理指標を用いて視線による生体反応との関係を明らかにする.視線を各種インタフェース,コミュニケーションに適用するアプリケーションの提案を行う.
|