研究概要 |
パーティクルフィルタを用いた運転者挙動推定として,1)顔の姿勢の推定では,ステアリング奥から正面顔を撮影するカメラの動画像にて,瞳の位置に着目して,3次元空間での縦横移動および首の回転を推定する方法を提案した.2)ステアリングを操作する両手挙動の推定では,シートベルト巻き取り上部からステアリングを撮影するカメラの動画像にて,肌色に着目して,ステアリング上の左右手の握り位置(角度)を左右手判別の上で推定する方法を基に,更に,手首の向きを推定する方法を提案し,左右手が交差し隠れが生じる困難を解決した,また,手をステアリングから離した事を判定し,両手の複雑な動きの推定を可能にした.更に,3)ペダルを操作する足挙動の推定として,マイクロ波のドップラー効果を利用した信号の周波数からの速度推定にて,ペダルの操作量信号を加えた上で,足の物理的な動きのみでなく,足の動作がどのような離散的状態にあるかを判別するアプローチを採り,計算量の削減と,組み込みマイコンなどへの実装を検討した. インフラ設置センサとして,広視野を持つ複合センサとしてレーザ距離計と全方位カメラを同一軸で固定し,複数の歩行者を同時にリアルタイム推定する方法を提案し,それに基づくリアルタイム追跡システムを構築した. パーティクルフィルタの推定精度を保ったまま高速化を行う方法として,まず,GPGPUの枠組みにおいて,動画像中の特定色物体の追跡課題に対し,約250並列で約60倍の高速化を実現する方法を提案し,それを実装したリアルタイム追跡システムを構築した.次に,FPGAへの実装として,動画像を扱うFPGA開発環境を整備し,動画像中の特定色物体の追跡課題に対し,尤度計算を行う部分の実装を進めた.
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
研究期間内明らかにする事柄として,下記5項目を可能な限り達成することを掲げており,各々の達成度は下に記載の通りである. (1)自動車キャビン搭載の高機能センサによる運転者の包括的な挙動のリアルタイム推定顔姿勢,両手挙動,足挙動の個別推定を行うリアルタイムシステムが完成している. 包括的な推定を,最終年度(平成24年度)にて実施する予定. (2)運転者の外界状況認識・運転意図・心理状態の推定に関する方法論の構築最終年度(平成24年度)にて検討する予定. (3)ITS技術援用による自:車周辺の詳細状況のリアルタイム把握と安全運転支援方法の考案最終年度(平成24年度)にて検討する予定. (4)パーティクルフィルタの超並列実装による高精度かつ超高速のアルゴリズム開発と実装動画像中の特定色物体追跡において,本課題を達成している. 運転者挙動の推定に対する適用を,最終年度(平成24年度)にて実施する予定である. (5)上述の方法論を活かした安全運転支援の各種アプリケーションの提案最終年度(平成24年度)にて実施の予定.
|
今後の研究の推進方策 |
運転者挙動の推定については,顔,両手,足の個別推定は完了しているので,それらを総合して,包括的な運転挙動を推定するようにする. 運転挙動の推定結果に基づき,それを外界状況(外界センサから推定された結果)と照合することで,1)運転者の外界状況把握,2)運転意図,3)心理状態などの推定を行う方法論を検討する. 運転者挙動などの推定において,高い精度を保ちつつリアルタイム性を向上するために,マルチコアCPUやGPGPUなどでの超並列実装技術を用いる. 以上の結果に基づき,更にITS技術なども援用して,安全運転支援の方法論やアプリケーションを考案する.
|