キーボード等により布モデル操作の切り替えを行うのではなく,人工知能を用いてより手指の動きから柔軟に布モデル操作の切り替えを行うシステムの開発を目指した.この人工知能は,手の瞬間的な形を認識する静的モデルと,手の動作の流れを認識する動的モデルの2つのモデルで構成した.これにより 97% 以上の精度でジェスチャを識別することができた.人工知能の手の動作分類結果と布モデル操作を結び付けることで,直感的でスムーズな布モデル操作を可能とした. 本年度は,操作性の向上を目指し,人工知能の改良を行った.今まで特定のジェスチャを用いて操作の切り替えをしてきたが,実際に布を扱っている際の手指動作データを学習データとして用いることで人工知能の改良を行った.先行研究では,光学式センサ(LeapMotion)を用いて手指のデータを取得していたため,布を扱っているところをイメージした動作を実施してもらうだけで,実際に布を扱った際の動作ではなかった.そこで,布で手が隠れても手指の動きを取得できるデータグローブを用いて各操作のデータを収集し,それを人工知能に学習データとして与えた.この結果,より自然な動きにより各操作を判定することができた.しかし,実際に本仮想立体裁断システムに組み込んで使用したところ誤認識が生じてしまう結果となった.これは,学習に用いたデータ(曲げデータ,データグローブで取得)が,本仮想立体裁断システムで用いているデータ(三次元データ,LeapMotionで取得)と異なっていたためと考えられる.データ形式を統一させて実行しているが,その統一させるために行った変換により特徴量として優位に働いていた情報がなくなってしまった可能性がある.しかし,特徴量の見直しや変換方法の再検討を行うことでより精度の高い人工知能の開発ができ,操作性の高いシステムへと改良できると考えられる.
|