Research Abstract |
近年,ロボット技術が長足に進展した結果,これまでのように定められた作業行程のみを機械が単独に繰り返し行うのではなく,人の指示を受けながら人が行う作業を補助する働きをするものが有効であることが認識されつつある.このような際の人とロボットが行う情報交換の手段にはいくつかの方法が考えられるが,そのなかでも言葉を利用することは,人にとって特に訓練を行わなくてもよいことや,特別な道具を利用しなくてもよいことなどの点から大変有効な手段である. この点,音声認識に関する研究は,従来から各所で盛んに行われているが,ロボットの利用を必要とする場面のように周囲の雑音が大変大きい環境では,十分に音声を認識できないという基本的な問題がいまだに解決できていない.本研究計画では,このような高雑音環境下での単語認識を実現する1つの手段として,視覚情報である唇の動きを実時間で取り込みながらそれを認識することにより,人が発する単語の認識を行うことを考える.これは,人がいわゆる「読唇」によって,ある程度言葉を理解できることを考えれば現実的な方法といえる.この方法によると周囲の雑音に影響されない単語認識システムを構築することができるだけでなく,先に述べたような人にとって特別な訓練や道具を必要としない柔軟なヒューマン・マシンインターフェイスを実現することができると期待される. 本研究計画では,人の発話中の顔画像を実時間で取り込み,それから唇の動きを抽出する手法について検討し,そのハードウエア化を試みた.開発を試みたハードウエアはFPGAと呼ばれる内部構造を自由に設計できる集積回路を中心に,プリント基板上に実現するものとした.FPGA中には動的輪郭モデルとよばれる,画像の輪郭を高速に抽出することができる回路を実現し,その結果現状では試作ではあるが画像1枚あたり平均で3ミリ秒で処理することができた.これは日本で標準のNTSCと呼ばれるビデオ信号の規格で定められるフレーム間の間隔が33ミリ秒であることを考えると,大変高速であり実時間処理ができることが実証できた. また,高い雑音下でも正確に人の発話を検出できるよう,唇の動きの変化を捉えることによる発話区間の自動抽出手法についても検討した.発話中の唇の動きを表現する各種のパラメータについて考察を加え,まず母音認識手法を確立した.その後,母音の並びにより単語を認識する手法を考案し実時間読唇システムの構築を試みた結果,良好な結果を得ることができた.
|