研究課題/領域番号 |
19K03086
|
研究機関 | 秋田県立大学 |
研究代表者 |
猿田 和樹 秋田県立大学, システム科学技術学部, 教授 (80282193)
|
研究分担者 |
寺田 裕樹 秋田県立大学, システム科学技術学部, 准教授 (40360002)
|
研究期間 (年度) |
2019-04-01 – 2023-03-31
|
キーワード | 運転者教育 / 360度カメラ映像 / 視線計測 / 画像認識 / 認知能力 / 同一物体判定 / 認知負荷 |
研究実績の概要 |
本研究課題では,ドライバー視点の360度カメラ映像を視線計測機能付きのヘッドマウントディスプレイ(以下,HMD)に提示し,歩行者や危険個所への被験者の注視行動を計測・分析することでドライバーの認知能力を向上させ,交通事故の低減に貢献できるシステムを開発することを目的とする。 2021年度は,被験者の注視物体の自動判定に必要となる同一物体の判定手法,注視状態の自動判定手法,異なる気象条件下での注視行動比較について検討した。 同一物体の判定手法は,異なるフレームでの注視物体が同一物体かどうかを判定するものである。物体検出手法により抽出した映像中の車両の大きさと抽出できる特徴点数を分析し,一定サイズ以上の車両領域で提案手法が有効であることを確認した。また,オプティカルフローの導入により,映像から走行状態を自動分類する可能性を示すことができた。 注視状態の自動判定手法については,画像認識技術による注視状態の判別手法について検討した。従来手法では頭部運動が生じた場合の注視状態を判別に対応できないため,視線座標周辺部の画像から特徴手を抽出し,特徴点マッチングにより注視状態を判別する手法を提案した。実験により,直線走行シーンにおいて提案手法の有効性を確認できた。一方でコーナー走行シーンにおいては判別精度に課題があることが判明した。 異なる気象条件下での注視行動比較については,これまでの晴天時の映像だけでなく降雨・降雪時の映像も対象としHMDに提示して実験した。目視により判定した結果,自動車・人・信号等に対し晴天時の注視率が高いことが明らかになった。また,運転タスクを追加した視線計測可能なVRドライビングシミュレータを構築した。実験により追い抜き時と右折時の注視行動パターンについて分析し,気象条件により注視状態が異なることを明らかにした。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
本研究課題は,小型でより高い臨場感で運転映像を提示して被験者の注視行動を計測・分析するシステムを開発し,開発システムを用いた訓練を実施することにより,ドライバーの認知能力を向上させ,ドライバーの認知ミスに起因する交通事故の低減することを目的としている。 これまでに開発してきた運転者教育システムでは,ドライブレコーダー映像をタッチパネル搭載PCに提示し,被験者が画面上の注視対象物をタッチする訓練により,認知能力の向上を目指す仕組みとなっていたが,ドライブレコーダーの記録映像は視野角が狭く,かつPC画面で視聴する際の視野角が走行時と異なることが課題となっていた。また,実走行時における注視行動の変化の分析で教育効果を確認する際,対向車両や歩行者の数,気象条件などの走行環境が被験者毎に異なること影響が懸念されていた。これらの課題を解決するための仕組みを構築することが,本研究課題の第一段階の目標である。 2019・2020年度に映像提示および視線計測環境の構築を中心に遂行し,360度カメラで撮影したドライバー視点の映像を視線計測機能付きヘッドマウントディスプレイに提示し,被験者の視線が計測できる環境を構築した。より実際の運転に近い視野角で映像を提示し,統一した環境で被験者の注視行動を計測できる仕組みを実現できた。2020年度以降は被験者がどのような物体を注視していたかを自動的に判定する仕組みの構築を目指しており,物体認識技術を用いた注視対象物の自動判定の仕組みの構築,認知負荷の計測方法,様々なシーンの映像の追加について検討している。2021年度はその重要な要素技術である同一物体の判定,注視状態の判定手法について検討を進め,降雨降雪時の映像も収集できた。基礎的な環境の構築と要素技術の検討に加え,異なる気象条件下での注視行動比較も実施し,研究課題をさらに推し進めることができたといえる。
|
今後の研究の推進方策 |
2022年度は本研究課題の最終年度であり,以下の内容について検討する。 (1)360度カメラ映像中の人や物体を深層学習等の画像認識技術により高精度に認識できる手法について見直し,被験者の注視対象となりやすい物体の認識性能の向上を図る。また,画像認識結果と視線座標をもとに,被験者がどのような物体を注視していたかを自動的に判定する仕組みを実装し,被験者間の注視行動を比較・分析する環境の完成を目指す。同一物体の判定と注視状態の判定手法の開発も含める。(2)提案システムを用いて,気象条件・時間帯・交通状況等が異なる様々な映像に対し,年齢や運転経験の異なる被験者の注視行動の違いについて比較・分析する。(3) 提案システムの実走行に対する訓練効果を検証するため,訓練前後におけるドライバーの実走行時の注視行動を計測し,上述した映像中の物体の注視率や注視行動の定量的評価に基づき,認知能力向上に対する効果について分析する。実走行時のドライバーの注視行動の計測には,前方映像と視線情報の記録が可能なグラス型視線計測器を利用する。(4)実際のカメラ映像を用いる提案システムと運転タスクを追加した視線計測可能なVRドライビングシミュレータで比較し,認知能力の向上に対する効果の違い,運転タスクの有無の影響について明らかにする。(5)提示映像により認知負荷が異なることがこれまでの知見として得られており,映像中の物体数などのシーン解析やドライバーの生体センシングをもとに,映像毎の認知負荷の高さの数値化についても検討する。 なお,実験時に提示する映像は,これまでと同様に各取り組みと並行して随時収集する。
|
次年度使用額が生じた理由 |
2019年度末から2021年度に計画していた出張が新型コロナウイルス感染拡大の影響により,見合わせとなった。また,感染拡大予防の観点から被験者を多数集めることも見送った。以上により旅費や人件費の支出が発生しなかったことにより,次年度使用額が発生した。2022年度の学科発表に対する旅費,被験者へ謝金としての人件費として,それらを使用する計画である。 なお,前年度にアニメーション映像でのVR開発環境の構築にも着手しており,さらなる環境整備や走行シーンの作成にも支出する計画である。
|