• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

群れの3次元行動計測のための全自動マーカーレスモーションキャプチャ

Publicly Offered Research

Project AreaHierarchical Bio-Navigation Integrating Cyber-Physical Space
Project/Area Number 22H05654
Research Category

Grant-in-Aid for Transformative Research Areas (A)

Allocation TypeSingle-year Grants
Review Section Transformative Research Areas, Section (IV)
Research InstitutionKyoto Institute of Technology (2023)
Kyoto University (2022)

Principal Investigator

延原 章平  京都工芸繊維大学, 情報工学・人間科学系, 教授 (00423020)

Project Period (FY) 2022-06-16 – 2024-03-31
Project Status Completed (Fiscal Year 2023)
Budget Amount *help
¥7,800,000 (Direct Cost: ¥6,000,000、Indirect Cost: ¥1,800,000)
Fiscal Year 2023: ¥3,900,000 (Direct Cost: ¥3,000,000、Indirect Cost: ¥900,000)
Fiscal Year 2022: ¥3,900,000 (Direct Cost: ¥3,000,000、Indirect Cost: ¥900,000)
Keywordsコンピュータビジョン / カメラキャリブレーション / マーカーレスモーションキャプチャ / マーカレスモーションキャプチャ
Outline of Research at the Start

動物・昆虫・魚などの群れに見られる個体間もしくは環境とのインタラクションや,その個体と集団が階層性をもって移動する階層ナビゲーションを定量的にモデル化し,解析・予測へとつなげるためには,各個体を拘束することなく3次元移動軌跡を自動計測する技術の確立が不可欠である.本研究では,カメラ群を設置するだけで自動的に相対位置を理解して,被写体のマーカーレスモーションキャプチャを実現する手法の開発を行う.

Outline of Annual Research Achievements

本研究は様々な生物の三角測量に基づいたマーカーレスモーションキャプチャを行うにあたって必須となる,複数カメラ間の相対位置姿勢を得るカメラキャリブレーション問題を,撮影された被写体自身の情報のみを用いて解くことを目的としている.一般にカメラキャリブレーションではカメラ間で同一の3次元点を撮影している対応点を取得しなくてはならない.したがって本研究が解く本質的な問題はカメラ間の相対位置姿勢および撮影時刻差が未知の状態で,カメラ間で個体識別をしつつ対応点を得ることができるか,であった.また前年度はこの課題に対してその一部を緩和して,個体識別および撮影時刻差同定がすでになされているとの仮定の下で,カメラ間の相対位置姿勢を頑健に得ることができる新たなアルゴリズムを考案することができていた.
これに対して本年度は,個体識別および撮影時刻差の同定をも同時に行うことができるアルゴリズムを新たに考案し,その有効性を定量的に実証することができた.考案した新たなアルゴリズムは,カメラキャリブレーションを既知とした場合に最適な個体間の対応付けを撮影時刻差を考慮しつつ行うステップと,個体間の対応付けおよび撮影時刻差を既知とした場合に最適なキャリブレーションを行うステップの2つのステップから構成されており,後者は前年度に開発したアルゴリズムがそのまま対応している.この2つのステップを交互に繰り返すことによってカメラ間の相対位置姿勢,撮影個体識別,および撮影時刻差のすべてを最適化することが可能となった.これにより本研究が掲げた,実環境で複数台のカメラを設置して被写体の群れを撮影するだけで,全自動でカメラキャリブレーションとマーカーレスモーションキャプチャを行うことができるようになり,生物学など非コンピュータビジョン分野の研究者であっても実環境で複数個体の全自動3次元運動計測を行う道筋をつけることができた.

Research Progress Status

令和5年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和5年度が最終年度であるため、記入しない。

Report

(2 results)
  • 2023 Annual Research Report
  • 2022 Annual Research Report
  • Research Products

    (5 results)

All 2023 2022 Other

All Journal Article (1 results) (of which Peer Reviewed: 1 results) Presentation (3 results) (of which Int'l Joint Research: 2 results) Remarks (1 results)

  • [Journal Article] Extrinsic Camera Calibration From a Moving Person2022

    • Author(s)
      Sang-Eun Lee, Keisuke Shibata, Soma Nonaka, Shohei Nobuhara, Ko Nishino
    • Journal Title

      IEEE Robotics and Automation Letters

      Volume: 7(4) Issue: 4 Pages: 10344-10351

    • DOI

      10.1109/lra.2022.3192629

    • Related Report
      2022 Annual Research Report
    • Peer Reviewed
  • [Presentation] DeePoint: Visual Pointing Recognition and Direction Estimation2023

    • Author(s)
      Shu Nakamura, Yasutomo Kawanishi, Shohei Nobuhara, and Ko Nishino
    • Organizer
      International Conference on Computer Vision (ICCV)
    • Related Report
      2023 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 変形可能な3次元体表面ラットモデル2023

    • Author(s)
      樋上彩加, 大島果林, 白松(磯口)知世, 高橋 宏知, 延原章平, 西野恒
    • Organizer
      情報処理学会コンピュータビジョンとイメージメディア研究会
    • Related Report
      2023 Annual Research Report
  • [Presentation] Extrinsic Camera Calibration From a Moving Person2022

    • Author(s)
      Lee Sang-Eun、Shibata Keisuke、Nonaka Soma、Nobuhara Shohei、Nishino Ko
    • Organizer
      International Conference on Intelligent Robots and Systems
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research
  • [Remarks] Extrinsic Camera Calibration From a Moving Person

    • URL

      https://github.com/kyotovision-public/extrinsic-camera-calibration-from-a-moving-person

    • Related Report
      2023 Annual Research Report 2022 Annual Research Report

URL: 

Published: 2022-06-20   Modified: 2025-11-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi