研究概要 |
近年,ロボット技術が長足に進展した結果,これまでのように定められた作業行程のみを機械が単独に繰り返し行うのではなく,人の指示を受けながら人が行う作業を補助する働きをするものが有効であることが認識されつつある.このような際の人とロボットが行う情報交換の手段にはいくつかの方法が考えられるが,そのなかでも言葉を利用することは,人にとって特に訓練を行わなくてもよいことや,特別な道具を利用しなくてもよいことなどの点から大変有効な手段である. 音声認識に関する研究は,従来から各所で盛んに行われているが,ロボットの利用を必要とする場面のように周囲の雑音が大変大きい環境では,十分に音声を認識できないという基本的な問題がいまだに解決できていない.本研究計画では,このような高雑音環境下での単語認識を実現する1つの手段として,視覚情報である唇の動きを実時間で取り込みながらそれを認識することにより,人が発する単語の認識を行うことを考える.この方法によると周囲の雑音に影響されない単語認識システムを構築することができるだけでなく,人にとって特別な訓練や道具を必要としない柔軟なヒューマン・マシンインターフェイスを実現することができると期待される. 本研究計画では,人の発話中の顔画像を実時間で取り込み,それから唇の動きを抽出する手法について検討し,そのFPGAと呼ばれる集積回路へのハードウエア化を試みた.FPGA中には動的輪郭モデルとよばれる,画像の輪郭を高速に抽出することができる回路を実現し,画像1枚あたり平均で3ミリ秒で処理することができた.これは日本で標準のNTSCと呼ばれるビデオ信号の規格で定められるフレーム間の間隔が33ミリ秒であることを考えると,大変高速であり実時間処理ができることが実証できた.また,発話中の唇の動きを表現する各種のパラメータについて考察を加え,まず母音認識手法を確立した.
|