研究課題/領域番号 |
21K11991
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分61020:ヒューマンインタフェースおよびインタラクション関連
|
研究機関 | 宇都宮大学 |
研究代表者 |
森 博志 宇都宮大学, 工学部, 准教授 (80538447)
|
研究期間 (年度) |
2021-04-01 – 2025-03-31
|
研究課題ステータス |
交付 (2022年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2024年度: 520千円 (直接経費: 400千円、間接経費: 120千円)
2023年度: 520千円 (直接経費: 400千円、間接経費: 120千円)
2022年度: 1,430千円 (直接経費: 1,100千円、間接経費: 330千円)
2021年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
|
キーワード | アバタ / モーションキャプチャ / バーチャルリアリティ |
研究開始時の研究の概要 |
アバタを活用した共有VR空間における参加型コンテンツにおいて、アバタ操作者の操作の負担を軽減しつつ、意図した通りに自身の分身であるアバタの動作表現が可能なアバタ操作支援技術の研究に取り組む。 本提案技術では、各種センサにより取得された意識的/無意識的な操作入力より操作者の操作意図を推定し、且つ他のVR体験者のアバタやVR環境との整合性や応答性を考慮して、アバタ動作を自動補正する。これにより、操作者はVR環境との整合性を意識することなく、任意の操作入力方式と任意の操作頻度で、意図通りのアバタ動作を構成することが可能となることが期待できる。
|
研究実績の概要 |
本研究では、バーチャルリアリティ(以下、VR)において利用者の自己投射対象であるCGアバタを利用者の意図通りに操作可能なアバタ動作の操作支援技術を確立する。 アバタはVRにおける人の代替映像として用いられ、モーションキャプチャ技術を用いて操作者の動作情報を取得しCGアバタモデルに反映することで構成される。 その際、意図した通りのアバタ動作の構成のために、操作者にはVR空間における整合性を意識した詳細な演技による継続的な操作入力が求められる。そこで本研究では、検討を進めてきた一部の身体部位の姿勢情報からのアバタ動作の構成技術を基に、アバタが介在するVR空間との整合性を保持しつつ任意の操作情報から操作者の意図を反映するアバタ動作の構成と、任意の操作頻度から半自動的に本物性と整合性を保持したアバタ動作の構成を可能にする。 2022年度は,マルチモーダル入力情報に基づく意図を反映したアバタ動作の構成手法の検討として,感覚モダリティの維持を目的とした任意の身体部位における姿勢情報,および視線情報を入力操作情報として利用したアバタの操作支援手法を確立した。 また,本手法において深層学習に用いるアバタの多様な全身の動作データの確保のために,初学者でも簡易に制作が可能な低詳細な動作データをモーションキャプチャで制作した高詳細な動作データに変換する動作データの高詳細化手法を確立し,動作データの制作のための支援技術として有効であることを確認した。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
1: 当初の計画以上に進展している
理由
2022年度に計画していたマルチモーダル入力情報に基づく意図を反映したアバタ動作の構成手法の取り組みについて計画通り研究を実施し一定の成果が得られた。また,深層学習に用いる多様な動作データの確保のための動作データの制作支援手法を確立し当初の計画以上の進捗が得られた。
|
今後の研究の推進方策 |
2023年度は,2022年度に引き続きマルチモーダル入力情報に基づく意図を反映したアバタ動作の構成手法の検討を進める。姿勢情報以外の操作入力形式と組み合わせについて操作者のアクセシビリティを評価し状況に応じた適切な操作入力形式を明らかにするとともに構成技術の検討を実施する。また,操作履歴データに基づいたアバタの自動操作技術について検討を実施する。
|