本研究では、任意形状のCGモデルヘの身振りの機械的適用を可能とする、人間の空間認知に即して空間を量子化する人体座標系の創出を目的とする。昨年度は、日本語手話辞典の身振り説明文、述べ16640文を形態素解析して得られた、動作を定める際に参照される人体上の参照点をISO/IEC 14496-2Humanoid Animationで規定される人体骨格モデル上にマッピング可能であり、これらの点を原点とする極座標集合を用いて身振りが表出できるであろうという予測を得た。本年度はこの予測を、日本語手話辞典の身振り説明文の解析から、傍証されうるかどうかについて検討を行った。日本語手話辞典に記載されている3235見出しのうち、自動修正アルゴリズムによりOCR認識誤りを修正できた2022の見出し語について、これらの説明文が出格、人格、対格の体の部分を含む名詞句を有するかについて調べたところ、該当する文は全体の35%であった。しかし、詳細な検討の結果、与えられた手話説明文では体の部分が必ずしもこれらの格で表現されていない場合もあることから、さらに詳細な検討を必要とすることが明らかになった。最終年度は、この仮説検証を進めるとともに、参照点に基づいた座標系を構築し、人体座標系の実現を目指す。また、初年度に確立したモーションキャプチャ環境を用いて、構築人体座標系に基づくモーションキャプチャ環境の創出を目指す。(601文字)
|