研究概要 |
モーションキャプチャによって参加者の動作情報を獲得し,それと事前知識を用いて参加者のアバタの動作を生成することにより,遠隔地にいる参加者間でのコミュニケーションを実現するリアルタイムヒューマンプロキシ(RHP)を実現するために,今年度は以下の点について研究を行った. 1.RHPを実現するためには参加者の動作を認識する必要があり,そのためにはコミュニケーションの状況に合わせてどの動作を認識するべきかをシステム構築者が決定しなければならない.しかし,必要な動作をすべて選択するのは困難である.そこで,参加者の動き情報から繰り返し行われる動作(モチーフ)をすべて抽出し,システム構築者がモチーフの中から必要な動作を選択することによって,容易にもれなく必要な動作を選択できるようにすることを目指した.モチーフの抽出のために,音声などの1次元の時系列データからモチーフを抽出する手法を,顔や両手の動きという多次元の時系列データに応用した. 2.RHPを実現するためには動作認識の出力(動作シンボル)からアバタの動作を生成する必要がある.このためには自律的な動作の生成ルールや動作に応じた動き情報を事前知識として用意しておかなければならない.しかし,これらの事前知識はアバタの体の構造や体格に依存するため,アバタごとに事前知識を作成しなければならなかった.そこで,事前知識を階層的に記述できるように変更した.また,動き情報を体格にあわせて自動的に修正する手法を導入した.これらによって,事前知識の拡張性と再利用性が高まり,事前知識の作成の労力を大幅に削減できるようになった.
|