研究概要 |
本年度は, モーションキャプチャスーツのハードウェアの製作のみならず, マルチモーダルのセンサ情報から, それらの関係性を高速にモデル化するアルゴリズムや, 周囲の環境状態を認識するアルゴリズムの開発を行った. (1)触覚センサとモーションの融合による身体図式の獲得 人の体型の正確なモデルを持たせることは非常に困難であり, また, 体表面は運動により伸縮するため, センサの位置はあらかじめ決定できない. そこで, 身体図式の獲得に必須である, 触覚センサをモジュール化した柔軟なシートを開発し, 計測すべき部位に貼り付けるだけで表面形状の伸び縮みに対応可能な全身の触覚スーツを実現した. (2)モーションと接触, 環境情報の同時計測による人のモデリング, 認識手法の構築 人は環境や物体とのインタラクションなしでは生活できない. 人と物体とがインタラクションを行うときには必ず接触を伴う. この接触はモーションを決定する拘束条件を求めるのに非常に大きな意味を持つ. そこで全身にまとった接触センサを利用することで, モーションに拘束条件をつけ, モーションを正確に推定するアルゴリズムを構築した. さらに, 全身から得られる感覚情報や運動情報を構造化・モデル化を高速かつ正確に行うアルゴリズムの開発と, 環境の状態を瞬時に理解するアルゴリズムの開発も行った. (3)ビヘイビアキャプチャスーツの作成 上記の全身触覚センサスーツ, 触覚拘束条件を利用した動作推定, 新規に開発した慣性センサの統合による高性能の姿勢センサを統合することでビヘイビアキャプチャスーツを実現した. さらに, 床の上をローリングするなどのダイナミックな動作のオンライン行動計測実験も行い, 実際に計測可能であることを実証した.
|