研究課題/領域番号 |
21K03962
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分20020:ロボティクスおよび知能機械システム関連
|
研究機関 | 福岡大学 |
研究代表者 |
小野 晋太郎 福岡大学, 工学部, 准教授 (80526799)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
研究課題ステータス |
交付 (2022年度)
|
配分額 *注記 |
4,160千円 (直接経費: 3,200千円、間接経費: 960千円)
2023年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2022年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
2021年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
|
キーワード | 自動運転 / ドライブレコーダ / ドライビングシミュレータ / 任意視点画像 / 車間距離推定 / 車両運動 / 運転シミュレーション / 仮想現実感 |
研究開始時の研究の概要 |
本研究では、撮影した道路走行映像を用いて、自動運転車両の走行状況、および速度や車両方向などを変化させた場合の走行状況を撮影映像の後処理により簡易的に再現する技術を開発し、それが可能であるための走行条件を明らかにする。 また、自動運転における通常時および異常時、特に手動運転への切り替え(テイクオーバー)が発生する状況を前述の技術により高い写実的再現性に基づいて模擬できるようにすることで、自動運転や遠隔監視のオペレーションにおける適切な訓練や運用の策定に役立てる。
|
研究実績の概要 |
R4年度においては、以下の事項に取り組んだ。 (1) 撮影映像を処理することで操舵効果を再現する手法を開発した。1つは深層学習技術を利用して任意視点からの画像を推測・描画する手法である。この手法は既に知られているが、シーンを小規模に分割し、視線方向のサンプリングを簡略化することで運転シミュレーションとしての最低性能(480x270, 10fps)を大きく超える見通しが得られた。もう1つの手法は、画角を広めに撮影した映像の中央部を切り抜いてい描画し、切り抜き領域をシフトすることで簡易的に操舵効果を実現するものである。この手法では操舵時の見え方が幾何的に正しくないため、見え方相違量が最小となる条件をVR空間で再現して試算した。 (2) ドラレコ映像から推定した車間距離および走行ログから自車両の急ブレーキ発生を検出する手法(R3年度開発)を改良し、数秒先の発生予測までできるようにした。また、自車両の走行状況の把握の一環として、自動走行においても認識が必要な前方のカーブミラーや死角を検出する手法を開発した。カーブミラーの検出においては、自らの撮影画像や Google Street View 画像により複数の検出器(Faster R-CNN, SSD, YOLOv4)を学習し、検出器と最適化アルゴリズム毎の性能を比較分析した。死角の検出は簡易的なルールベース手法を試行し、シーン中の意味領域とデプスが同時にエッジを持つ箇所を提示するだけでも効果が得られることを確認した。 (3) 研究代表者の異動に伴い実際の自動運転車両からドライバ挙動や走行映像を取得する見通しが立たなくなったことから、VR環境により模擬的に自動運転を行える環境を構築した。機材や自動運転シミュレーションソフトを検討し、導入の目処を立てた。また、シミュレーションCGのコントラストと速度感覚について予備検討を行った。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
R4年度までは、研究代表者の異動に伴う研究体制の整備、前所属機関におけるデータ利用の制約などにより遅れが生じていた。
R5年度は、研究体制も整い、取得・利用の困難なデータについてはシミュレーションで対応する方針で準備を進めたため、遅れを取り戻しつつある。
|
今後の研究の推進方策 |
自動運転車両におけるドライバの運転挙動(自動運転から手動運転への切替、テイクオーバー)については、研究代表者の異動により、実車両から取得できる見通しが立たないことから、やむを得ずシミュレーションデータにより取得する方針へ転換する。また、実車両の運転者を目視で観測してテイクオーバー事象を記録(データ数が減少することを許容)する。
|