本研究では、CCDビデオカメラを被写体の周囲に配置し、同期して撮影された別々の複数のビデオ・フレーム列をネットワーク経由で収集し、そこで被写体位置に関する大雑把な実時間解析を行うと同時に時区間クラスタリングを行って、あらかじめ定義されたスキーマに沿ってデータベースに蓄積する、という3次元動作データベースの基礎技術を確立することを目的としている。2年間にわたり、サッカーやバスケットボール等、複数の選手が自立協調的に動くスポーツを対象とし、選手の姿勢・動作の解析や、集団(協調)動作における戦略の解析など、多くの実際的な情報の収集方法を検討し実験を行った。ネットワーク基盤としては、ギガイーサネットを用いて、離れた建物にある並列計算機システムに複数カメラのビデオストリームを集約し、その上で同一時点のフレーム群に対して被写体検出と対応点検出を数秒程度の時間遅れで行う手法を開発した。この際に純粋な画像処理的な手法だけでなく、被写体についての知識(被写体が人間であるならば、簡素化した人体の3次元グラフィックモデル)を用いて画像マッチングをとることにより探索時間の減少と精度の向上を図る手法も開発し、その有効性を検討した。 申請者らが既に開発している関数型マルチメディアデータベースエンジンを用い、以上の取得データ及び解析データに適合するスキーマ設計を行った。特に各ビデオカメラから送られる生データと、解析データ(3次元オブジェクトの位置情報)とが対応がとれて蓄積されることに留意した。従来のデータベースではイメージ列のような大容量データのリアルタイムローディングには適応しないと言う問題があったが、データ落ちが無くスキーマに沿って蓄積する手法を開発した。 以上の手法の有効性を検証するため、現在開発中の「画像蓄積型広域モーションキャプチャのビデオフレーム列およびカメラパラメータ時系列をデータベースに蓄積し、姿勢動作解析に適用して問題なく動くことを確認した。
|