一人称視点教示映像のマルチモーダル解析による人物行動の学習と予測
Project/Area Number |
22KF0119
|
Project/Area Number (Other) |
22F22378 (2022)
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Multi-year Fund (2023) Single-year Grants (2022) |
Section | 外国 |
Review Section |
Basic Section 61010:Perceptual information processing-related
|
Research Institution | The University of Tokyo |
Principal Investigator |
佐藤 洋一 東京大学, 生産技術研究所, 教授 (70302627)
|
Co-Investigator(Kenkyū-buntansha) |
HUANG YIFEI 東京大学, 生産技術研究所, 外国人特別研究員
|
Project Period (FY) |
2023-03-08 – 2025-03-31
|
Project Status |
Granted (Fiscal Year 2023)
|
Budget Amount *help |
¥2,200,000 (Direct Cost: ¥2,200,000)
Fiscal Year 2024: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2023: ¥1,100,000 (Direct Cost: ¥1,100,000)
Fiscal Year 2022: ¥400,000 (Direct Cost: ¥400,000)
|
Keywords | 一人称視点映像解析 / 人物行動理解 / 行動認識 / 行動予測 / 人物行動センシング / 動作認識 / ドメイン適応 |
Outline of Research at the Start |
本研究では、一人称視点教示映像のマルチモーダル解析による人物行動の学習と予測と題し、映像情報から人の行動の予測を可能とする技術の開発に取り組むものである。特に、Embodied AIの考え方に基づき、ウェアラブルカメラから得られる一人称視点映像に焦点を当て、人物の動作、行動、注意の3つの側面を統合しモデリングすることにより、高い精度での行動予測を可能とすることを目指す。
|
Outline of Annual Research Achievements |
本研究では、一人称視点教示映像のマルチモーダル解析による人物行動の学習と予測と題し、映像をもとにした人物行動理解のための基盤技術の開発に取り組んだ。特に、今年度は人の行動を記述したテキストをクエリとして映像から該当区間を見つけるtemporal sentence groundingと、手物体操作に関わるアフォーダンスのモデリングの2つのテーマに取り組み成果を得た。前者に関して、映像中の該当区間の開始時刻と終了時刻のアノテーションを必要としない弱教師有り学習に注目し、モデル予測の不確定性を考慮した自己学習に基づく手法により既存手法を大幅に越える性能を実現した。また、後者のアフォーダンスのモデリングに関して、既存研究では手物体操作におけるアフォーダンスの定義に誤りがあることを指摘した上で、一人称視点映像データセットEPIC-KITCHENに対して正しいアフォーダンスラベルを付与するためのアプローチを提案し、新たに構築したデータセットを用いることで動作認識やアフォーダンス認識の精度が大幅に改善されることを示した。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
本研究で得られた成果について、コンピュータビジョン分野のトップ国際会議CVPRに1件、主要国際会議のWACVに1件の論文を発表することが出来た。
|
Strategy for Future Research Activity |
当初の研究計画に沿って研究を進めていく。
|
Report
(2 results)
Research Products
(4 results)