本研究では、任意形状のCGモデルへの身振りの機械的適用を可能とする、人間の空間認知に即して空間を量子化する人体座標系の創出を目的とする。本年度はまず、人間の空間認知に合致した座標系を定義するために、人が身振りをどのように量子化して視認しているかについて分析を行った。具体的には、日本語手話辞典の身振り説明文、述べ16640文をOCR入力し、形態素解析を行って名詞を含むバイグラム、および、格助詞「の」によって接続される名詞句、3249句を抽出して、これより人体の部分を含む句、142句を抽出した。これらの抽出された句が動作を定める際に参照される人体上の参照点であると考えられる。本研究では、更に抽出された参照点群がモーションキャプチャに適用可能であるかどうか検討を行った。結果、これらの点がISO/IEC 14496-2 Humanoid Animationで規定される人体骨格モデル上の点群に関連づけてマッピング可能であり、これらの点を原点とする極座標集合を用いて身振りが表出できるであろうという予測を得た。一方、本研究では、研究代表者らの開発した手袋型手形認識装置について、手話で表出される手形を手形状から正しく抽出できることを確認し、これを用いたモーションキャプチャ装置が構成可能であることを確認した。以上のように、本年度は、本研究で実現を目指す人体座標系の創出と、これを用いたモーションキャプチャ装置が構成可能であるという予測を得ることが出来た。次年度以降は参照点に基づいた座標系を構築し、前述の予測の正当性について検討し、人体座標系、および、これを用いたモーションキャプチャ環境の創出を目指す。(696文字)
|