人体座標系の創出 -二頭身アバタによるモーションキャプチャー
Project/Area Number |
17680008
|
Research Category |
Grant-in-Aid for Young Scientists (A)
|
Allocation Type | Single-year Grants |
Research Field |
Media informatics/Database
|
Research Institution | Osaka University (2007) Kyoto University (2005-2006) |
Principal Investigator |
黒田 知宏 Osaka University, 基礎工学研究科, 准教授 (10304156)
|
Project Period (FY) |
2005 – 2007
|
Project Status |
Completed (Fiscal Year 2007)
|
Budget Amount *help |
¥21,320,000 (Direct Cost: ¥16,400,000、Indirect Cost: ¥4,920,000)
Fiscal Year 2007: ¥2,860,000 (Direct Cost: ¥2,200,000、Indirect Cost: ¥660,000)
Fiscal Year 2006: ¥4,420,000 (Direct Cost: ¥3,400,000、Indirect Cost: ¥1,020,000)
Fiscal Year 2005: ¥14,040,000 (Direct Cost: ¥10,800,000、Indirect Cost: ¥3,240,000)
|
Keywords | モーションキャプチャ / 手話 / 形態素解析 / Humanoid Anima / 手形認識装置 / 人体座標計 / Humanoid Animation / 人体座標系 / 手形認識装 |
Research Abstract |
本研究では、任意計上のCGモデルへの身振りの機械的適用を可能とする、人間の空間認知に即して空間を量子化する人座標の送出を目的とする。本研究では、目語手話辞典の身振り説文、延べ16640分を形態素解析して得られた動作を定める際に参照される人体上の参点をISO/IEC 14496-2 Humanoid Animationで規される人体骨格モデル上にマッピング可能であり、これらの点を原点とする極座標集合を用いて身振りが表出できるであろうという予測を得た。本年度はこの予測の検証を、日本語手話辞典の説明文の解析から傍証されうるかどうかについて検討を行ったが、仮説を直接的に裏付けうる、人体上の座標点を参照している文書は全体の35%にとどまることが明らかになった。しかしならがら、残りの65%の文書についてさらに詳細な検証を行ったところ、そのほとんどは、「手話空間」と呼ばれる胸前の領域に手が停留している身振りであり、暗默知とされているため具体的に説明文中には表記されていないことが明らかになった。以上のことから、本研究で提唱した仮説は一定支持されると考えられることが明らかになった。一方、空間上の点に対してマッピングされるのは、指先や手首、手のひらなど多岐にわたり、提案空間座標計に手をマッピングする際には、手のどの部位をマッピングせねばならないかが必ずしも明確でなく、かつ、一定のパターンを見いだすことが大変今なであることが明らかになった。今後、自動的に身振りを様々なアバターにマッピングできるようにするためには、さらに継続的な検討が必要であると考えられた。(683文字)
|
Report
(3 results)
Research Products
(39 results)