• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

一人称視点教示映像のマルチモーダル解析による人物行動の学習と予測

Research Project

Project/Area Number 22KF0119
Project/Area Number (Other) 22F22378 (2022)
Research Category

Grant-in-Aid for JSPS Fellows

Allocation TypeMulti-year Fund (2023)
Single-year Grants (2022)
Section外国
Review Section Basic Section 61010:Perceptual information processing-related
Research InstitutionThe University of Tokyo

Principal Investigator

佐藤 洋一  東京大学, 生産技術研究所, 教授 (70302627)

Co-Investigator(Kenkyū-buntansha) HUANG YIFEI  東京大学, 生産技術研究所, 外国人特別研究員
Project Period (FY) 2023-03-08 – 2025-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥2,200,000 (Direct Cost: ¥2,200,000)
Fiscal Year 2024: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2023: ¥1,100,000 (Direct Cost: ¥1,100,000)
Fiscal Year 2022: ¥400,000 (Direct Cost: ¥400,000)
Keywords一人称視点映像解析 / 人物行動理解 / 行動認識 / 行動予測 / 人物行動センシング / 動作認識 / ドメイン適応
Outline of Research at the Start

本研究では、一人称視点教示映像のマルチモーダル解析による人物行動の学習と予測と題し、映像情報から人の行動の予測を可能とする技術の開発に取り組むものである。特に、Embodied AIの考え方に基づき、ウェアラブルカメラから得られる一人称視点映像に焦点を当て、人物の動作、行動、注意の3つの側面を統合しモデリングすることにより、高い精度での行動予測を可能とすることを目指す。

Outline of Annual Research Achievements

本研究では、一人称視点教示映像のマルチモーダル解析による人物行動の学習と予測と題し、映像をもとにした人物行動理解のための基盤技術の開発に取り組んだ。特に、今年度は人の行動を記述したテキストをクエリとして映像から該当区間を見つけるtemporal sentence groundingと、手物体操作に関わるアフォーダンスのモデリングの2つのテーマに取り組み成果を得た。前者に関して、映像中の該当区間の開始時刻と終了時刻のアノテーションを必要としない弱教師有り学習に注目し、モデル予測の不確定性を考慮した自己学習に基づく手法により既存手法を大幅に越える性能を実現した。また、後者のアフォーダンスのモデリングに関して、既存研究では手物体操作におけるアフォーダンスの定義に誤りがあることを指摘した上で、一人称視点映像データセットEPIC-KITCHENに対して正しいアフォーダンスラベルを付与するためのアプローチを提案し、新たに構築したデータセットを用いることで動作認識やアフォーダンス認識の精度が大幅に改善されることを示した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本研究で得られた成果について、コンピュータビジョン分野のトップ国際会議CVPRに1件、主要国際会議のWACVに1件の論文を発表することが出来た。

Strategy for Future Research Activity

当初の研究計画に沿って研究を進めていく。

Report

(2 results)
  • 2023 Research-status Report
  • 2022 Annual Research Report
  • Research Products

    (4 results)

All 2023 2022

All Presentation (4 results) (of which Int'l Joint Research: 4 results)

  • [Presentation] Weakly Supervised Temporal Sentence Grounding with Uncertainty-Guided Self-training2023

    • Author(s)
      Yifei Huang, Lijin Yang, and Yoichi Sato
    • Organizer
      IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2023)
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] Fine-grained Affordance Annotation for Egocentric Hand-Object Interaction Videos2023

    • Author(s)
      Zecheng Yu, Yifei Huang, Ryosuke Furuta, Takuma Yagi, Yusuke Gotsu, and Yoichi Sato
    • Organizer
      IEEE/CVF Winter Conference on Applications of Computer Vision (WACV 2023)
    • Related Report
      2023 Research-status Report
    • Int'l Joint Research
  • [Presentation] Compound Prototype Matching for Few-shot Action Recognition2022

    • Author(s)
      Yifei Huang, Lijin Yang, and Yoichi Sato
    • Organizer
      European Conference on Computer Vision (ECCV 2022)
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Interact before Align: Leveraging Cross-Modal Knowledge for Domain Adaptive Action Recognition2022

    • Author(s)
      Lijin Yang, Yifei Huang, Yusuke Sugano, and Yoichi Sato
    • Organizer
      IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2022)
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research

URL: 

Published: 2022-11-17   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi