VRアバタコミュニケーションのアクセシビリティ向上のためのアバタ操作支援技術
Project/Area Number |
21K11991
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 61020:Human interface and interaction-related
|
Research Institution | Utsunomiya University |
Principal Investigator |
森 博志 宇都宮大学, 工学部, 准教授 (80538447)
|
Project Period (FY) |
2021-04-01 – 2025-03-31
|
Project Status |
Granted (Fiscal Year 2022)
|
Budget Amount *help |
¥4,160,000 (Direct Cost: ¥3,200,000、Indirect Cost: ¥960,000)
Fiscal Year 2024: ¥520,000 (Direct Cost: ¥400,000、Indirect Cost: ¥120,000)
Fiscal Year 2023: ¥520,000 (Direct Cost: ¥400,000、Indirect Cost: ¥120,000)
Fiscal Year 2022: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Fiscal Year 2021: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
|
Keywords | アバタ / モーションキャプチャ / バーチャルリアリティ |
Outline of Research at the Start |
アバタを活用した共有VR空間における参加型コンテンツにおいて、アバタ操作者の操作の負担を軽減しつつ、意図した通りに自身の分身であるアバタの動作表現が可能なアバタ操作支援技術の研究に取り組む。 本提案技術では、各種センサにより取得された意識的/無意識的な操作入力より操作者の操作意図を推定し、且つ他のVR体験者のアバタやVR環境との整合性や応答性を考慮して、アバタ動作を自動補正する。これにより、操作者はVR環境との整合性を意識することなく、任意の操作入力方式と任意の操作頻度で、意図通りのアバタ動作を構成することが可能となることが期待できる。
|
Outline of Annual Research Achievements |
本研究では、バーチャルリアリティ(以下、VR)において利用者の自己投射対象であるCGアバタを利用者の意図通りに操作可能なアバタ動作の操作支援技術を確立する。 アバタはVRにおける人の代替映像として用いられ、モーションキャプチャ技術を用いて操作者の動作情報を取得しCGアバタモデルに反映することで構成される。 その際、意図した通りのアバタ動作の構成のために、操作者にはVR空間における整合性を意識した詳細な演技による継続的な操作入力が求められる。そこで本研究では、検討を進めてきた一部の身体部位の姿勢情報からのアバタ動作の構成技術を基に、アバタが介在するVR空間との整合性を保持しつつ任意の操作情報から操作者の意図を反映するアバタ動作の構成と、任意の操作頻度から半自動的に本物性と整合性を保持したアバタ動作の構成を可能にする。 2022年度は,マルチモーダル入力情報に基づく意図を反映したアバタ動作の構成手法の検討として,感覚モダリティの維持を目的とした任意の身体部位における姿勢情報,および視線情報を入力操作情報として利用したアバタの操作支援手法を確立した。 また,本手法において深層学習に用いるアバタの多様な全身の動作データの確保のために,初学者でも簡易に制作が可能な低詳細な動作データをモーションキャプチャで制作した高詳細な動作データに変換する動作データの高詳細化手法を確立し,動作データの制作のための支援技術として有効であることを確認した。
|
Current Status of Research Progress |
Current Status of Research Progress
1: Research has progressed more than it was originally planned.
Reason
2022年度に計画していたマルチモーダル入力情報に基づく意図を反映したアバタ動作の構成手法の取り組みについて計画通り研究を実施し一定の成果が得られた。また,深層学習に用いる多様な動作データの確保のための動作データの制作支援手法を確立し当初の計画以上の進捗が得られた。
|
Strategy for Future Research Activity |
2023年度は,2022年度に引き続きマルチモーダル入力情報に基づく意図を反映したアバタ動作の構成手法の検討を進める。姿勢情報以外の操作入力形式と組み合わせについて操作者のアクセシビリティを評価し状況に応じた適切な操作入力形式を明らかにするとともに構成技術の検討を実施する。また,操作履歴データに基づいたアバタの自動操作技術について検討を実施する。
|
Report
(2 results)
Research Products
(4 results)