研究概要 |
研究実施計画に従って研究を遂行した.前年度はPCクラスタを用いた16眼リアルタイム映像取得システムを構築した.今年度はこれをさらに発展させ,実際の交差点右折時において,対向右折車が障害となって死角となってしまう対向直進車を車両や路上に取り付けたカメラで撮影し,その画像から対向直進車を抽出し,運転者にわかりやすく提示する実験を行い,以下の結果を得た. 1.実験車両として自車両,対向右折車,対向直進車の3台を使用した.自車両には多数のPC・センサー等の電源を確保するためハイブリット車を用い,PC5台とカメラ3台,GPSセンサー,3軸角度センサーを各1台搭載した実験車を構築した.また対向右折車にはPC,カメラ,GPSセンサー,3軸角度センサーを各1台搭載した. 2.インフラ側カメラとして,交差点の信号機にカメラを設置した. 3.カメラの位置・向きを知るために用いた各センサーは,対向右折車後部のカメラの位置・向き情報は無線LANで,また信号機のカメラの位置・向き情報はあらかじめ測定しておいたものを自車両PCに送り,2次元射影変換における並進・回転パラメータをリアルタイムで決定するシステムを構築した. 4.対向直進車を対向右折車後部と信号機に設置した無線カメラで撮影し,それらの画像を自車両のPCに取り込み,処理を行った. 5.従来の車両抽出法では車両がうまく抽出されない場合があったため,新たにオプティカルフローを用いて車両領域を抽出するアルゴリズムを開発した. 6.自車両車載モニターに提示された画像は雑音等を多く含んでいたが,開発したアルゴリズムにより運転者が対向直進車の存在を正しく認識することができる精度で提示することに成功し,多視点画像情報の統合利用が運転支援に有効であることを実証した.
|