本年度は、上空映像による災害時の道路交通情報把握において、実利用可能なシステムを構築するため、道路上の車両の検出精度を上げる2つの方法を検討した。 まず映像内の道路領域の細分化を検討した。上空映像から道路領域を抽出するために、これまでは映像全体に1つの射影変換を適用してディジタル地図と位置合わせをし、道路領域を抽出する手法を用いていた。しかし、実際の道路には高低差があるため、映像全体で同じ射影変換を適用すると、位置ずれの誤差が多数生じ道路領域抽出に支障が生じる。そこで、道路上の車線境界線の情報を利用して道路領域を細かく分割し、個々の領域を別々の変換式で位置合わせをして統合する手法を考案した。 次に夜間の車両検出手法を検討した。これまでは、車両や道路の状況が目視で判断できる昼間に撮影された映像を前提としてシステムを検討してきたが、夜間に撮影された映像に対しても機能するシステムでないと実利用が難しい。そこで、夜間映像から抽出可能な車両のヘッドライトを抽出することで、車両の動きを解析する手法を検討した。ただし、路面の反射光の影響などで、ライトの位置を正確に判断することが困難なため、パーティクルフィルタなどの特殊な手法を用い、ヘッドライト周辺部を1つの塊として抽出しこれを車両として検出する手法を考案した。さらに、解析が難しい薄暮時間帯における車両追跡も可能となるよう、車体とヘッドライトのそれぞれの領域を抽出後に1つに統合して全体を検出する手法も考案し、プログラムを実装した。 以上の手法を踏まえ、今後は、計算機システムの専門家でなくても使えるインタフェースを構築し、社会全体で利用可能なシステムの実現を目指す予定である。
|