本研究は,膨大な監視映像に含まれている人物属性の詳細認識を実現することを目標とする.これらの情報は,人物のより高次な振る舞いの理解に役立ち,次世代の監視・防犯システム,自動運転システム,ウェアラブルデバイス,ロボットなどで活用される重大な要素となる. 本年度は,昨年度と同じく,車載カメラ映像中の歩行者を研究対象とし,歩行者の4つの属性(性別2クラス:男性・女性,年齢5クラス:子ども・若年・成年・中年・老年,体格3クラス:痩せ型・健康型・肥満型,服装4クラス:薄着・運動着・カジュアル・ドレス)の詳細認識を中心に研究を行った.昨年度開発した4つの手法(超解像処理,特徴抽出時 におけるパッチ分割,姿勢ごとの識別器の構築,及びグラフィカルモデルによる後処理)と別に,部分と全体に着目したCNNの融合手法を開発した. CNNの学習において,認識対象の部分画像をネットワークの入力とした場合,該当部分に対しては詳細な特徴が表現できるが,画像全体の情報が欠落する.一方,認識対象の全体画像を入力した場合は,画像全体のアピアランスを考慮することができるが,各部分に対しては,部分画像を用いて学習した場合と比較して詳細な特徴が表現できない.この問題を解決するため,今年度は上記5つ目の手法を開発した.また,それらすべての手法を組み合わせることによって歩行者属性の詳細認識を実現した.評価実験の結果,昨年度のアプローチよりも高い認識精度を達成したことが確認された.
|