Project/Area Number |
06650454
|
Research Category |
Grant-in-Aid for General Scientific Research (C)
|
Allocation Type | Single-year Grants |
Research Field |
計測・制御工学
|
Research Institution | Tokyo Institute of Technology |
Principal Investigator |
佐瀬 幹哉 東京工業大学, 大学院・総合理工学研究科, 助手 (20225907)
|
Project Period (FY) |
1994 – 1995
|
Project Status |
Completed (Fiscal Year 1994)
|
Budget Amount *help |
¥1,300,000 (Direct Cost: ¥1,300,000)
Fiscal Year 1994: ¥1,300,000 (Direct Cost: ¥1,300,000)
|
Keywords | ジェスチャー / ニューラルネットワーク / アーム制御 |
Research Abstract |
当初の研究実施計画では、ジェスチャー認識系とアーム適応制御系それぞれの機構について別々に研究を行う予定であったが、実験の結果ジェスチャー認識系の構成に予想以上の困難な問題があったため、これを克服することに今年度の研究目標を変更した。 1系統のカメラから画像入力の場合は、画像の時系列の差分から画像の変位などは抽出可能であったが、ジェスチャーの認識という実時間性の強い応用には計算時間の点で不適当と判断された。また、2系統の画像入力の場合に両画像で対応した点を見つけだすことは、視角の変化による見え方の変化、光の反射強度の違いによる明度変化、背景光の変化による影響などから、極めて難しい問題を抱えていることが判明した。そこでこれらの前処理を単純化するため、赤外線発光ダイオードを関節の目印としてその3次元空間座標を得ることと、ハンドジェスチャーを単純な多角形(4〜8角形)の変形過程でモデリングした。すると対応点のマッチングは多角形頂点どうしの対応となり、作業空間内の指示点の推定が可能となった。また、初めに手の画像領域(ハンド領域)を比較的精密に切り出した後、次からはその中心から大雑把に画像を切り出し以後それをハンド領域とする2段階のハンド領域抽出を行うことで、実時間性の向上を試みた。 来年度は、ジェスチャーの系列認識系を更に発展させ、アームの適応制御系と組み合わせて全体のシステムを構成する予定である。
|