• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Remote monitoring to visualize situations by a first- and third-person perspective and detect situations using omnidirectional images and wearable sensors

Research Project

Project/Area Number 21K12806
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 90150:Medical assistive technology-related
Research InstitutionIbaraki University

Principal Investigator

Shiroma Naoji  茨城大学, 理工学研究科(工学野), 准教授 (90312826)

Project Period (FY) 2021-04-01 – 2024-03-31
Project Status Completed (Fiscal Year 2023)
Budget Amount *help
¥4,030,000 (Direct Cost: ¥3,100,000、Indirect Cost: ¥930,000)
Fiscal Year 2023: ¥780,000 (Direct Cost: ¥600,000、Indirect Cost: ¥180,000)
Fiscal Year 2022: ¥1,040,000 (Direct Cost: ¥800,000、Indirect Cost: ¥240,000)
Fiscal Year 2021: ¥2,210,000 (Direct Cost: ¥1,700,000、Indirect Cost: ¥510,000)
Keywords視覚共有 / 画像安定化 / 全方位画像 / 状況推定 / 遠隔見守り / 状態推定
Outline of Research at the Start

申請者開発の非同期視覚共有手法および過去画像履歴を用いた三人称視点画像生成技術を応用して、一人称視点による視覚共有、三人称視点による見守られる人の観察を実現する。そして、見守られる人の状態の自動検知をセンサ情報に基づいた機械学習により行う。本研究は、災害対応での救助者の作業支援機器、共同外出感が得られる屋外散策支援福祉機器等の遠隔地から現実空間の情報収集機器への応用、波及効果が期待される。

Outline of Final Research Achievements

In this study we aimed to realise remote monitoring to support safe and secure activities and outings. The objectives are realization of a visual sharing method based on an omnidirectional first-person perspective that is less burdensome to each other, a method that visualizes the situation of the person being watched from a third-person perspective and intuitively grasps it, and a method for automatically detecting the condition of the person being watched over. A visual sharing method based on an omnidirectional first-person perspective that allows you to empathize with what the person being watched is seeing, a third-person viewpoint image generation method that visualizes the situation of the person being watched from a third-person perspective, a method for automatically detecting the condition of the person being watched were developed. It is confirmed that it is possible to realise remote monitoring to support safe and secure activities and outing by the developed system.

Academic Significance and Societal Importance of the Research Achievements

遠隔からの見守りに必要な構成要素である、見守られる人の見ている事柄を共有して共感できること、見守られる人の状況を俯瞰的に把握可能であること、そして、見守られる人の状態を自動で検知可能であることを開発したシステムにより明らかにした。本研究は、災害対応での救助者の作業支援機器へ応用でき、要救助者探索の迅速化、効率化が図れ、要救助者のみならず救助者の安全性を高められる。現在のコロナ禍のように対面で会えない場合でも視覚共有の負担なしに家族や友人と一緒に外出した共同外出感が得られる屋外散策支援機器として使用でき、創造性があり福祉機器分野への貢献も期待できる。

Report

(4 results)
  • 2023 Annual Research Report   Final Research Report ( PDF )
  • 2022 Research-status Report
  • 2021 Research-status Report
  • Research Products

    (6 results)

All 2023 2022 2021

All Presentation (6 results)

  • [Presentation] 全方位画像による視覚共有システムのための初期位置推定手法の開発2023

    • Author(s)
      高山 周人、城間 直司
    • Organizer
      第24回計測自動制御学会システムインテグレーション部門講演会(SI2023)
    • Related Report
      2023 Annual Research Report
  • [Presentation] 内界センサを用いた立位・臥位の状況の推定手法の開発2022

    • Author(s)
      秋山零、城間直司
    • Organizer
      第40回 日本ロボット学会学術講演会
    • Related Report
      2022 Research-status Report
  • [Presentation] 全方位画像の安定化と視覚共有に関する研究2021

    • Author(s)
      土田 哲平,城間 直司,大山 英明
    • Organizer
      日本機械学会 2021年茨城講演会
    • Related Report
      2021 Research-status Report
  • [Presentation] 環境地図統合と環境探査システムに関する研究2021

    • Author(s)
      平野 剛,城間 直司
    • Organizer
      日本機械学会 2021年茨城講演会
    • Related Report
      2021 Research-status Report
  • [Presentation] 3次元カメラを用いた豚の体型情報推定のための複数視点からの点群取得手法に関する研究2021

    • Author(s)
      鄭 聖超,城間 直司
    • Organizer
      日本機械学会 2021年茨城講演会
    • Related Report
      2021 Research-status Report
  • [Presentation] 光学シースルーHMDを使用した直感的移動指示システムの開発2021

    • Author(s)
      大田 尚登,城間 直司
    • Organizer
      令和3年度(第29回)電気学会東京支部茨城支所研究発表会
    • Related Report
      2021 Research-status Report

URL: 

Published: 2021-04-28   Modified: 2025-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi