• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2021 Fiscal Year Annual Research Report

Appropriate planning of AEDs and signs in light of uncertainty in primary lifesaving by non-medical personnel

Research Project

Project/Area Number 18K04524
Research InstitutionRitsumeikan University

Principal Investigator

山田 悟史  立命館大学, 理工学部, 講師 (00551524)

Co-Investigator(Kenkyū-buntansha) 小峯 力  中央大学, 理工学部, 教授 (60382826)
江川 香奈  東京電機大学, 理工学部, 助教 (10648603)
岩田 伸一郎  日本大学, 生産工学部, 教授 (30314230)
Project Period (FY) 2018-04-01 – 2022-03-31
KeywordsAED / 救命率 / 非医療従事者 / 転倒検知
Outline of Annual Research Achievements

非医療従事者による救急医療環境の充実には,現状及び計画の評価検証が必要であるが手法が十分ではない。そこで過年度から引き続き突発的な心肺停止状態の要救助者が発生した際の非医療従事者の一次救命行為による救命率を向上させる研究に取り組んだ。
18年度及び19年度は研究計画通りにMulti Agent Simulationを用いて確率現象として評価する手法の構築に取り組んだ。20年度は施設管理者のAEDに対する認識調査,AEDを指定時間内に利用可能な範囲とその範囲に含まれる人口把握を行った。最終年度に該当する21年度は,覚知の早期化が肝要であり課題であるという結果をふまえ,覚知を早期化するための研究を,当初の研究計画書に無い内容ではあるが発展的な関連研究として取り組んだ。
21年度の研究内容は,カメラによる転倒検知システムの開発である。具体的には,Deep Learningを基盤として関節情報を抽出するOpenPoseを用いた転倒検知システムの精度検証である。既往研究には91%の精度で転倒を検知できる報告がある。しかし精度の詳細や信頼性に不明瞭な点が残っている。そこで後述する4要因が転倒検知の精度に与える影響の検証を目的に研究を行った。その4要因のうち2要因は撮影時の要因である撮影仰角(30°・45°・60°),転倒姿勢(横向き・仰向き・うつ伏せ」)である。残りの2要因は解析時の要因であり,関節情報の取得数(4水準),転倒と通常を分類する機械学習のアルゴリズム(決定木・ニューラルネット<以下,NN>・サポートベクターマシン<以下,SVM>)である。研究ではそれぞれの精度を明らかにした上で,研究に用いた学習画像に類似する状態であればほぼリアルタイムで約95%の正解率で転倒と通常を検知可能なシステムを試作した。また転倒を見逃さない,という視点に立った場合の精度も検証した。

  • Research Products

    (3 results)

All 2022 2021

All Presentation (3 results)

  • [Presentation] カメラ映像に対する深層学習を用いた転倒検知の精度比較2022

    • Author(s)
      柴田拓海,山田悟史
    • Organizer
      日本建築学会大会(北海道)学術講演梗会,2022.9,日本建築学会
  • [Presentation] 医療施設における傷病者受け入れスペース設営マニュアルの 掲載内容に関する考察2022

    • Author(s)
      江川香奈,山田悟史,依田育士
    • Organizer
      日本建築学会大会(北海道)学術講演梗会,2022.9,日本建築学会
  • [Presentation] 深層学習を用いた異常検知による転倒把握に関する研究-OpenPose による特徴量抽出と分類-2021

    • Author(s)
      柴田拓海,山田悟史
    • Organizer
      第44回情報・システム・利用・技術シンポジウム

URL: 

Published: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi