研究課題/領域番号 |
19K03086
|
研究機関 | 秋田県立大学 |
研究代表者 |
猿田 和樹 秋田県立大学, システム科学技術学部, 准教授 (80282193)
|
研究分担者 |
寺田 裕樹 秋田県立大学, システム科学技術学部, 助教 (40360002)
|
研究期間 (年度) |
2019-04-01 – 2023-03-31
|
キーワード | 運転者教育 / 360度カメラ映像 / 視線計測 / 画像認識 / 認知能力 |
研究実績の概要 |
本研究課題では,ドライバー視点の360度カメラ映像を視線計測機能付きのヘッドマウントディスプレイ(以下,HMD)に提示し,行者や危険個所に対する被験者の注視行動を計測・分析することでドライバーの認知能力を向上させ,交通事故の低減に貢献できるシステムを開発することを目的とする。繰り返し実施することで訓練し,実際の運転行動における注視行動への効果が期待できる。 2019年度は映像収集,開発するシステムの基礎的な構築を中心に遂行した。 映像収集は秋田県由利本荘市および秋田市内の一般道にて実施した。ヘッドレスト固定型スタンドを用いてドライバーの頭部横にカメラを設置し,走行中の360度カメラ映像を収集した。被験者への提示の際の負担を考慮し,試験的に20~50秒程度の映像に編集し,晴天時の片側一車線および複数車線の映像など,ドライバーの認知負荷が異なると予想される映像を複数作成した。 システム構築では,作成した360度カメラ映像を運転者教育に用いるために,視線計測機能付きのHMDへの映像提示と視線計測の利用を試みた。VR技術を用いてHMDの仮想空間内に映像を提示し,搭載されている視線追跡機能を用いて仮想空間内における被験者の注視座標で取得した。この際,仮想空間内のシーンカメラを用いて被験者の視野に視線座標を重畳した映像を記録し,2次元映像で被験者の注視物体を確認できる仕組みを構築した。これによりこれまでに開発してきた注視対象物の自動判定と組み合わせることが可能とした。 以上により,360度カメラ映像を視線計測機能付きHMDに投影し,既存のシステムよりも実際の運転感覚に近く,かつ全被験者に同じ映像を提示し認知負荷を統一する基礎的な環境を構築できた。また,注視対象物の自動判定手法と組み合わせることで,仮想空間提示映像を用いた運転者教育システムの基礎的な仕組みを構築できた。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
研究課題は,小型でより高い臨場感で運転映像を提示して被験者の注視行動を計測・分析するシステムを開発し,開発システムを用いた訓練を実施することにより,ドライバーの認知能力を向上させ,ドライバーの認知ミスに起因する交通事故の低減することを目的としている。 これまでに開発してきた運転者教育システムでは,ドライブレコーダー映像をタッチパネル搭載PCに提示し,被験者が画面上の注視対象物をタッチする訓練により,認知能力の向上を目指す仕組みとなっていたが,ドライブレコーダーの記録映像は視野角が狭く,かつPC画面で視聴する際の視野角が走行時と異なることが課題となっていた。また,教育効果を確認するために実走行時における注視行動の変化を分析する際,対向車両や歩行者の数,気象条件などの走行環境が被験者毎に異なることも訓練効果の評価に影響していた。これらの課題を解決するための仕組みを構築することが,本研究課題の第一段階の目標である。 研究実績の概要に記載した通り,2019年度は映像提示および視線計測環境の構築を中心に遂行し,360度カメラで撮影したドライバー視点の映像を視線計測機能付きヘッドマウントディスプレイに提示し,被験者の視線が計測できる環境を構築した。より実際の運転に近い視野角で映像を提示し,統一した環境で被験者の注視行動を計測できる仕組みを実現できた。ステアリングやアクセル操作に応じて映像を再生する等の仕組みを導入するには至っていないが,仮想空間内のシーンカメラで視線座標を重畳した被験者が見ているシーンを記録することで,映像中の物体認識技術を用いた注視対象物の自動判定と組み合わせることも可能となり,2019年度の計画通りに基礎的な環境の構築を進めることができたといえる。
|
今後の研究の推進方策 |
2020年度以降は研究代表者である猿田が主体となり,以下の内容について検討する。 (1)360度カメラ映像中の人や物体を深層学習等の画像認識技術により高精度に認識できる手法について検討し,被験者の注視対象となりやすい物体の認識性能について評価する。また,画像認識結果と視線座標をもとに,被験者がどのような物体を注視していたかを自動的に判定する仕組みを導入し,被験者間の注視率を比較・分析する。(2)注視対象物だけはでなく,注視位置・視移動・認知までの時間等も含めた被験者の注視行動の数値化を試み,定量的な評価方法について検討する。また,提示映像により認知負荷は異なることが想定されるため,映像中の物体やドライバーの心拍数等をもとに,映像毎の認知負荷の高さの数値化についても検討する。なお,任意の認知負荷のシーンを作成しやすいこと,ステアリングやブレーキと連動した機能との親和性を考慮し,アニメーション映像によるシーン作成と利用も検討する。(3)開発するシステムを用いて被験者に繰り返し映像を提示する実験を実施し,認知能力の向上に対する効果が得られること,提示映像にどのようなシーンを用いればよいか等,より効果的な訓練方法について明らかにする。さらに,(4)気象条件・時間帯・交通状況等が異なる様々な映像に対し,年齢や運転経験の異なる被験者の注視行動の違いについて比較・分析する。また,実走行に対する開発するシステムによる訓練効果を検証するため,(5)訓練前後におけるドライバーの実走行時の注視行動を計測し,上述した映像中の物体の注視率や注視行動の定量的評価に基づき,認知能力向上に対する効果について分析する。なお,実走行時のドライバーの注視行動の計測には,前方映像と視線情報の記録が可能なグラス型視線計測器を利用する。 実験時に提示する映像は,2019年度と同様に上記取り組みと並行して随時収集する。
|
次年度使用額が生じた理由 |
当初購入を予定していた視線計測機能付きのヘッドマウントディスプレイ(216万円)が販売終了となり,後継機器に該当する機器が当該メーカーからは販売されておらず,同社の視線計測技術が導入され,比較的低価格で同等の機能を有する機器を購入し研究を遂行した。また,2019年度末に計画していた出張が新型コロナウイルス感染拡大の影響により,見合わせとなった。これらにより次年度使用額が発生した。 なお,ヘッドマウントディスプレイの差額分は,アニメーション映像でのVR開発環境の導入に充てる予定である。導入経緯を以下に示す。 本研究課題における実験にはさまざまな認知負荷の360度カメラ映像を必要としているが,所望の交通状況を撮影することは必ずしも容易ではない。2019年度に試験的に作成した360度カメラ映像でこの点が確認されており,特に今後予定している映像の認知負荷の数値化の検討においては,特定の車両や歩行者の有無などの状況をコントロールできれば,実験効率が大きく向上すると考えられる。そこで,任意のシーンを作成できるアニメーション映像の利用を2020年度以降の研究計画に追加し,そのためのVR開発環境を2020年度以降に購入する計画である。
|