2017 Fiscal Year Research-status Report
タッチパネル式運転者教育システムと歩行者認知能力の向上
Project/Area Number |
15K01081
|
Research Institution | Akita Prefectural University |
Principal Investigator |
猿田 和樹 秋田県立大学, システム科学技術学部, 准教授 (80282193)
|
Co-Investigator(Kenkyū-buntansha) |
寺田 裕樹 秋田県立大学, システム科学技術学部, 助教 (40360002)
|
Project Period (FY) |
2015-04-01 – 2019-03-31
|
Keywords | 運転者教育 / 認知能力 / タッチパネル / 視線計測 / 車載カメラ映像 |
Outline of Annual Research Achievements |
本研究は,ドライバーが前方の歩行者等の対象物の認知能力を高める運転者教育システムを開発し,交通事故の低減に寄与することを目的とする。提案システムはタッチパネル式ディスプレイに車載カメラ映像を提示し,映像中の対象物の位置を被験者にタッチさせ,対象物に対するドライバー認知行動を計測する。平成29年度は訓練効果の検証方法の検討と基本的な仕組みの構築に注力した。具体的には,提案システムによる訓練前後の運転時の注視行動の変化を比較するための方法,被験者の注視領域の物体認識の枠組みについて主に検討した。また,被験者の注視行動レベルの定量化の改善点について分析した。 訓練前後で運転時の注視行動の変化を比較するための方法として,ドライバーの注視点マップの生成手法について検討した。提案手法は,運転時のドライバーの視点映像から得られる風景のパノラマ画像にドライバーの視線を記録する。1つの画像内に視線をプロットするため,ドライバーが運転中にどこを見ているか,どこを注視しやすいかを容易に把握することができる。実験の結果,実際の運転席風景に近いパノラマ画像を生成できることを示した。また,直線走行・右折・駐車時いずれの映像に対しても,注視点マップから実際の視線移動が確認できた。 注視領域の物体認識については,被験者が注視しやすい物体を画像認識し,被験者の視線座標と併せて分析することで,何を見ていたかを解明するための方法について検討した。ディープラーニングの手法の一つであるFaster R-CNNを用い,歩行者・車両・信号機・標識などの注視対象となり得る物体を認識する基礎的な仕組みを構築できた。 注視行動レベルの定量化では,前年度に提案した注視行動レベルの判定手法の問題点について検討した。分析の結果,視線のばらつきと移動範囲の基準において,初心者レベルの注視行動でも高得点が与えられてしまう可能性が示された。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
平成29年度までの研究により,映像追加編集ツールを開発,視線計測器の導入による提案する運転者教育システムの改善,注視行動の計測,提示映像サイズの影響に加え,被験者の注視行動レベルの定量化ついての研究を推進してきた。提案する運転者教育システムによる注視行動の計測,および歩行者に対する認知時間の短縮という訓練効果については一定の成果が得られている。一方で,提案システムを用いた訓練による実際の運転行動への効果の検証が求められている。そのために,訓練の前後で運転時の注視行動の変化を比較するための枠組み,および被験者の注視領域の物体認識の基本的な枠組みについても検討している。 訓練前後の注視行動の変化を比較するために提案した注視点マップの生成手法については,複数シーンの映像に対してドライバーの視線を確認できる段階にある。しかし,現状では一定時間毎の視線座標のプロットであり,ドライバーが何かを注視した際の視線のみを抽出することはできておらず,課題として残されている。この課題を解決した段階で,運転時のドライバーの注視行動に対する評価・分析を実施する必要がある。 被験者の注視領域の物体認識については,Faster R-CNNを用いて映像中の歩行者・車両・信号機・標識などの物体を認識することが可能となった。現状では映像中の注視対象となる可能性の高い物体に対し,画像認識によりどの程度正しく認識できているか,その物体に被験者の視線が停留しているかを分析する段階まで到達している。ただし,物体のカテゴリによっては認識精度がまだ十分でないことが課題として挙げられる。 また,注視行動レベルの判定手法については,提案してきた手法におけるスコア化の基準の見直しが課題となっている。4つの評価指標のうち,特に視線のばらつきと移動範囲について,非熟練者が高得点とならないよう改善を図る必要がある。
|
Strategy for Future Research Activity |
平成30年度は本研究課題の最終年度であり,提案する運転者教育システムの有効性を検証するために,実際の運転における効果を明らかにすること,より高い教育効果を得るための仕組みを確立することを重点的に研究を遂行する。 実際の運転における効果を明らかにするために,提案システムによる訓練前後での運転時の注視行動を比較する。そのために,平成29年度に提案した注視点マップの改良を図る。現状では生成した注視点マップにおいて運転中の視線位置と視線移動を確認できるレベルであるが,ドライバーの視線が停留したときの視線情報のみを抽出し,これをもとにした注視点マップを生成することで,ドライバーの注視傾向も分析できるようになる。この改良を行った後,提案システムによる訓練の前と後で設定したコースを被験者に二度走行してもらい,注視行動を比較することで,実際の運転に対する効果を検証する。 より高い教育効果のためには,認知時間を計測して実験終了後に被験者に提示するだけではなく,提案システムを用いた訓練において何を見ていたか,どのように見ていたかを,被験者にフィードバックできることが望ましい。平成28年度から取り組んだ視線計測器の導入により,被験者の視線情報の取得を可能とし,平成29年度に映像中の物体認識についての基本的な枠組みは構築できている。平成30年度は注視対象となる物体の認識精度の向上を図った後,提案システム利用時に被験者が何を見ていたかを分析する。そのために,視線計測結果と物体認識結果にもとづき,注視領域と注視対象物を画像認識により自動的に判定する。また,注視行動レベルの判定手法における評価指標と得点基準の見直しを図ることで,どこをどう見ていたかをより精度よく数値化し,被験者に提示することを試みる。 以上により,より進んだ運転者教育システムの実現を目指す。
|
Causes of Carryover |
(理由) 平成28年度と同様に,平成29年度も被験者を対象とした運転者教育システムでの計測実験および提案システムの利用による訓練前後の運転時の注視行動の計測実験の実施を想定していた。しかし訓練前後の実際の運転時の注視行動を計測・比較する枠組みの実現を重点的に行い,新たな被験者による実験は先送りとなったため,平成30年度に繰り越して使用することとした。 (使用計画) 平成28年度には高齢者7名を被験者として実験を実施したが,高齢運転者の事故が近年クローズアップされることもあり,より多くの高齢者の被験者を動員し,認知特性や訓練効果における若年者との比較実験を実施する。また,訓練前後の運転時の注視行動の比較実験においても被験者が必要であり,これらの謝金として繰越分を支出する計画である。
|