研究概要 |
1.アイ・コンタクトの可能な遠隔対話装置を開発し,これを用いて自由な対話を収録した.収録データは,対話者の音声データ,それぞれ単独での顔映像,2画面ビデオを用いた顔映像である.これにより,対面対話と同じ状況で行われて対話者の正面映像が,対話と併せて収録される.現在,収録データから対話における視線の使われ方の分析を行っている. 2.人が対面でどのくらいの精度で視線の向きを推定できるかの実験を行い,視線の向きで±4°程度のずれ(1mの距離で7cmに相当)を検出できるのは7,8割であること,上下のずれの検出はさらに困難なことがわかった.これは,対話者がアイ・コンタクトが成立しているかどうかを,純粋に視線方向だけからでは,正確に推定できないことを意味する. 3.アイ・コンタクト型対話装置で取得した映像から,顔の向き,視線方向を実時間で抽出するシステムを開発した.処理時間の制約から主としてヒストグラム処理で対処しているが,顔の向きはそれなりの(±4°以下の誤差)性能であるが視線の向きは光線や人によりかなり困難な場合がある.現在,視線を含めて人並みの性能が得られるよう改良中である. 4.広い視野の中から人の顔を探してその方向に視線を向けることのできるロボットを制作した.また,ソフトウェアとして肌色抽出とテンプレートマッチを組み合わせた,実時間の顔領域抽出プログラムを開発し,ロボットに実装した.現在,3で開発した視線方向検出プログラムとあわせることで,人とロボットでのアイ・コンタクトを実現し,アイ・コンタクトの対話における意味を認知科学的立場から調査する準備を進めている.
|