遠隔コミュニケーションシステムの普及により、遠隔者の存在感が感じられない、場の雰囲気が共有できない、遠隔者とのかかわりが感じられない等の問題が指摘されている。先行研究では対面コミュニケーションで使用されるノンバーバル情報としての頭部身体動作に着目し、運動強調ディスプレイによってその動作を表現することで遠隔者とのかかわりを実感するための手法を提案した。そして運動強調ディスプレイを介した身体的引き込みの効果を確認し、遠隔者とのかかわりを感じる機能実装の可能性を示している。しかし、制御駆動元となる人がほとんど動かずに静止状態の場合、ディスプレイの物理動作は行われず、頭部動作駆動方式による運動強調ディスプレイの弱点と無動作状態への対応に関する課題が明らかとなった。一般の対面会話の場合、聞き手側にお辞儀等の大きな身体動作がない場合でも、生体反応としての息遣いや瞬きなど聞き手としての応答を感じて会話を行っていることから、本研究では、物理的な身体運動に加えて、人の生体情報(目・鼻・口)を利用する手法を提案した。つまり遠隔側では視線計測による眼球運動情報(目)と画像解析による頭部動作情報(鼻)を、また手元のディスプレイ対面側では、シグナル解析による音声情報(口)を検出し、それら3種類の入力合成信号で運動強調ディスプレイを制御し遠隔者とのかかわりを感じる身体的引き込み動作に利用する。この提案を具現化するために、本研究ではタブレット端末に物理的な動きを付与するロボットアームとタブレット端末を統合した遠隔会議システムシステムを開発した。頭部動作情報に加えて、リモート・ローカルの音声情報を統合利用することで、無動作状態への対応に関する課題に対する解決案を示すことができた。また、眼球運動情報を制御に利用するには至らなかったが、動作解析で用いることでロボットアームの動きを定量的に評価することができた。
|