研究概要 |
工学的読唇を実行するためには、口形を正確に画像として取り込むことが必要である。しかし、普通は、顔は上下左右に動くものであり、この動く顔から、常時、的確に口形画像を取り込むためにロボットのハンドにCCDカメラを取り付け、顔の動きを追従するビジュアルサーボの開発を行った。 本年は、実際の口形の代わりに、口形を模擬した一次元および二次元マーカーを追尾するニューラル・ネットワーク・リアルタイム追従制御系を設計し、実験を行った。 実験の概要と主な実験結果は次の通りである。 ニューラル・ネットワークとして入力数6、中間層のニュロン数20、出力数5を用いている。入力としては、初期画像と目標画像の特徴点を各3点とし、出力として、位置誤差をゼロとするための関節角度駆動量5個を用いて、BP学習をおこなわせた。 ロボットはム-ブマスターEX、画像処理ボードTRP-IMG,トランスピュータTRPM-401を用いている。この方法によって、未学習の初期値に対しても、その誤差範囲が小さければ、ほぼ1回の動作で目標位置と一致させることが出来た。また、ニューラル・ネットワークの出力値として、関節角度変位の場合とマニピュレータ状態変位の場合の2通りに対して行ってみたが、マニピュレータ状態変位として行った方が少ない学習回数で誤差を少なく、スムーズにマニピュレータを移動させることが出来た。
|