研究課題
視覚障害者に自立的な文字識別・理解の能力を提供し、QoL(生活の質)の向上を図るために、ウェアラブルな文字認識視覚補助デバイスの実現を目指して、看板や文書等のシーン中文字のリアルタイム抽出やトラッキング(追跡)、リアルタイム高速文字認識などの要素技術を開発し、理論的・実験的な考察を行なった。前年度までに開発したウェアラブルカメラ用の文字抽出・トラッキング手法に改良を加え、従来手法(2011年信学技報で発表)と比較して、同一の文字領域から生じる重複した画像の数を約1/3に抑えつつ、同約3倍の速度を実現した。これにより、重複した音声出力が減り、視覚補助デバイスの利便性向上に貢献できる。視覚障害者が自力で環境中の看板などを見つけ、認識に適した文字画像を撮影できるようにするため、文字の位置を音響信号によって提示する手法を前年度までに開発したが、本年度はこれに文字認識と音声合成を組み合わせた「文字読み上げカメラ」のプロトタイプを開発した。音響信号の工夫により、文字位置の高い正答率(98.8%)を得た。本プロトタイプを視覚障害者向けイベント「サイトワールド2012」に出展し、視覚障害者に利用してもらうことで、提案システムの有効性を確認するとともに、今後の改良や発展につながる有益なコメントや知見を多数得ることができた。ビデオレートのリアルタイム文字認識を実現するために、多クラス判別分析(LDA)と二分探索木を用いて、日本語文字認識の高速化手法の改良を推し進めた。前年度開発の手法では手書き文字データ(ETL9B)で速度・認識精度とも大きく低下していたが、改良型の手法ではこの性能低下を抑え、全数整合法と比べて33.9倍の速度を0.24%の精度低下で実現した。この処理速度は動画像(30fps)の1フレームあたり約198文字に相当し、リアルタイム文字認識の応用につながる。
24年度が最終年度であるため、記入しない。
すべて 2012 その他
すべて 雑誌論文 (1件) (うち査読あり 1件) 学会発表 (2件)
The 11th Asian Conference on Computer Vision (ACCV2012), Workshop on Detection and Tracking in Challenging Environments (DTCE)
巻: - ページ: -