2019 Fiscal Year Research-status Report
拡張現実感(VR)が拓く没入型運転者危険予測教育システム
Project/Area Number |
18K13237
|
Research Institution | Tokyo University of Agriculture and Technology |
Principal Investigator |
張 興国 東京農工大学, 工学(系)研究科(研究院), 特任助教 (60780492)
|
Project Period (FY) |
2018-04-01 – 2021-03-31
|
Keywords | 運転教育 / 安全運転 / 仮想現実 / 事故防止 / 全方位カメラ |
Outline of Annual Research Achievements |
本研究に開発したシステムは交通事故を未然に防ぐために,仮想現実技術を利用し,運転者の安全意識を効率的に訓練するものである.平成31年度(令和元年度)は,前年度開発した運転者教育システムを利用し,運転者の認知特性の計測・分析,及び訓練効果の検証実験を中心に実行した.認知特性の計測実験では,開発した運転者教育システムを用い,車載カメラ映像を提示した際の歩行者の反応時間を計測する.反応時間とは,映像中に危険源が出現してから,被験者が危険源を発見するまでの時間とする.これらの計測を,走行環境,時間帯,気象条件の異なる条件の映像に対し実施した. 計測結果をもとに,各条件における平均反応時間について傾向を分析した結果,従来の運転者危険予測教育システムより,本システムを利用する際,被験者の臨場感と自主性を高めて効率的に訓練を行うことが可能となった.さらに,被験者が危険である箇所を予測する能力が高まり,素早く的確に危険箇所を予測することができたためであると考えられる. また,現在システムの仕組みとして,被験者が危険を発見できなかった場合や,危険箇所のない場面で動画を一時停止させようとした場合の回数を特に計測しなかった.しかし,1回の映像の再生で危険箇所を発見した場合と,複数回映像を再生させてから危険箇所を発見した場合とでは,危険予測能力は異なると考えられるため,上記の場合も点数として評価指標に加え,総合的に判断していく必要がある.加えて,今回は3つの危険場面に対する訓練を行うことで効果を確認したが,より正確な検証を行うために,場面数を更に増やして評価する必要があると考えられる.
|
Current Status of Research Progress |
Current Status of Research Progress
3: Progress in research has been slightly delayed.
Reason
当初の計画においては,6ヶ月をかけて360度運転映像を収集し,ヒヤリハット場面を学習ビデオとして抽出し,様々な解析手法や評価方法を開発する予定であったが,収集した運転映像には,ヒヤリハット場面の事例が少ないため,360度ビデオを追加収集する必要がある.
|
Strategy for Future Research Activity |
次年度は,Deep Learning手法で全方位映像を自動認識し,多様な状況の映像に対し,被験者が映像に何を認知していたか,危険箇所の認知にかかった時間等を自動分析し,注視行動の数値化を試みる.さらに,画像認識技術を利用して,全方位映像における歩行者,車,信号機などの対象物を検知した上で,熟練運転者が多様な交通場面に対し,何をどの程度で注視していたかに関する情報収集する仕組みを開発する.また,前年度で構築した撮影環境で,走行環境(交差点,高速道路,山道,バス停留場付近,横断歩道など),時間帯(日中,薄暮,夜間など),気象条件(晴天,霧,降雨,降雪,積雪など)などの条件に応じて更に多くのヒヤリハットの映像を収集する.
|
Causes of Carryover |
コロナウイルスの影響で,参加予定する学会が来年度開催になるため,旅費などの経費が次年度使用する予定になる.
|