2010 Fiscal Year Annual Research Report
Project/Area Number |
22300194
|
Research Institution | Tohoku University |
Principal Investigator |
後藤 英昭 東北大学, サイバーサイエンスセンター, 准教授 (40271879)
|
Keywords | 画像認識 / 福祉工学 / 文字認識 / ウェアラブルカメラ / シーン文字検出 / 視覚障害者補助 |
Research Abstract |
視覚障害者に自立的な文字識別・理解の能力を提供し、QoL(生活の質)の著しい向上を図るために、ウェアラブルな文字認識視覚補助デバイスの実現を目指して、看板や文書等のシーン中文字のリアルタイム抽出やトラッキング(追跡)などの要素技術を開発し、理論的・実験的な考察を行なった。 小型USBカメラとヘッドマウントディスプレイ(HMD)、小型PCを用いて、ヘッドマウント型のカメラを有するウェアラブルな画像記録システムを構築し、屋内環境(白壁が多いシンプルな廊下)と屋外環境において、評価実験用の動画データを収集した。我々の研究グループで既開発の、ウェアラブルカメラ用の文字抽出・トラッキング手法(ICPR2008,ICDAR2009発表)をベースとして、より高精度で安定した手法の開発を行なった。パーティクルフィルタにおける類似度評価に、色分布とエッジ方向ヒストグラムを組み合わせたBhattacharyya距離を導入することによって、文字領域追跡の精度を大幅に改善し、同一の文字領域から生じる重複した画像の数を減らすことができた。屋内環境では、文字認識処理にかかる文字候補画像の数を、従来比で約41%まで削減できた。 視覚障害者が環境中の看板などを見つけ、認識に適した文字画像を撮影できるようにするため、検出された文字候補領域を仮想的音源として、三次元音響によって利用者に提示する手法を開発した。上下方向の位置に応じて周波数を変化させる手法を頭部伝達関数(HRTF)と組み合わせることで、HRTF単体と比較して、文字位置の正答率を2.6倍(約75%)まで大幅に改善できることがわかった。
|