配分額 *注記 |
14,500千円 (直接経費: 14,500千円)
2005年度: 4,200千円 (直接経費: 4,200千円)
2004年度: 4,400千円 (直接経費: 4,400千円)
2003年度: 5,900千円 (直接経費: 5,900千円)
|
研究概要 |
本研究はロボットに視覚を用いて環境を理解させる,具体的には自分の周りの3次元世界のマップを脳内に作らせるという課題に取り組んだものである.これは,実環境で動作をする実用ロボットの構成のための研究であるが,一方で,われわれ人間の空間知覚のメカニズムの解明にも挑戦しようというものであった. ここでの課題は,われわれの行動と結合した空間知覚の原理の解明とそのロボット視覚への応用である.対象の空間的な位置についての情報の幾らかは,静止している観察者によっても抽出し得る.しかし,観察者が動き始めることが,さらに多くの情報を手に入れるために必要である. 行動するということは,それがうまく実行されるために多くの空間の情報を必要とする.眼から得た画像によって矛盾のない空間情報を頭の中で再現することができれば,その空間情報のもとで行動をすると,眼から得られる画像は予想通りの変化をする.一方,この空間情報の再現が不十分であると正確な行動ができないが,それに加え,不自然な画像変化をも引き起こす.ただし,この不自然な画像変化は,それによってまた移動したその観察者に多くの情報をもたらし得る.われわれは,この不自然な変化に注目した.そしてわれわれは,ロボットのカメラ特性と行動特性をひとまとまりにしたシステムモデルをロボットに設け,この矛盾を無くすようにシステムモデルを修正することで空間を認識する方法を提案した. この原理を実ロボットに搭載したステレオ視覚システムに応用し,実環境での実験によって,本手法の有効性と将来性を確認した。
|