Research Abstract |
本研究では,人間を見守り,働きかけ,情報発信を促すような場をつくりだす情報メディアを実現するために,情報学の見地から,教師と生徒のノンバーバルインタラクションをモデリングすることを目的としている.18年度は,まず物理的な準備として,1.センシング環境の構築,2.エージェント制御インタフェースの構築を行った.また,それらの設備を使って,3.基本的なインタラクションモデルを組み込み,その効果を調べるための評価実験を行った.以下,具体的な内容を報告する. 1.センシング環境の構築:過去の研究で開発してきた手認識・動作認識に加えて,色ヒストグラムやSIFTといった画像特徴量を使った物体認識の技術を追加した.SIFTとは,画像の種々の変化に強い特徴量であり,近年注目が集まっている手法である. 2.エージェント制御インタフェースの構築:OpenGLを用いて,目線・顔の向き・体の向きの指定と各種表情が制御できるCGエージェントを作成した.また,位置センサで計測した人間の動作を模倣するSony AIBO用制御インタフェースを作成し,Sonyが配布しているAPIでは実現が難しい細やかな動作の生成を行った. 3.基本的なインタラクションモデルの組み込み:人間の内部状態とインタラクションの対応関係を調べる予備実験をCGエージェントを用いて行った.これにより,アクション-リアクションの回数が増えるほど,人間がエージェントの反応の遅れを「自分のことを考えてくれている時間」とみなすことが分かった.また,エージェントからのちょっとした働きかけにより,(システムの認識処理への)人間の協力を引き出すモデルを提案した.評価実験により,典型的な状況において,従来は失敗していた認識の50〜70%が解決されることを示した.
|