研究課題/領域番号 |
07455167
|
研究種目 |
基盤研究(B)
|
配分区分 | 補助金 |
応募区分 | 一般 |
研究分野 |
計測・制御工学
|
研究機関 | 東京大学 |
研究代表者 |
出口 光一郎 東京大学, 大学院・工学系研究科, 助教授 (30107544)
|
研究分担者 |
本谷 秀堅 東京大学, 大学院・工学系研究科, 助手 (60282688)
永松 礼夫 東京大学, 大学院・工学系研究科, 助手 (40172556)
|
研究期間 (年度) |
1995 – 1996
|
研究課題ステータス |
完了 (1996年度)
|
配分額 *注記 |
5,900千円 (直接経費: 5,900千円)
1996年度: 2,900千円 (直接経費: 2,900千円)
1995年度: 3,000千円 (直接経費: 3,000千円)
|
キーワード | ロボット制御 / 画像認識 / 視覚サーボ / 画像圧縮 / 能動視覚 / 動画像処理 / 視覚センサ / 行動制御 / コンピュータ・ビジョン / ロボット視覚 / 画像処理 |
研究概要 |
本研究の目的は、視覚センサ(カメラ)を搭載して自由に動くことが出来るロボットにおいて、また照明などの撮像条件も制御することが出来る場合も含め、ロボットの行動と得られる画像との関係を明らかにし、さらに、認識にとってより良い画像を能動的に得る可能性を探ることで、得られる画像と能動的なセンシング行動の密な統合をはかり、ロボットの行動制御の基本原理を確立することであった。 これまでの視覚サーボの研究では、画像データを画像を構成する要素、例えば、特徴点、線分、ある特定の単純な図形の集合としてとらえ、それらの特徴がカメラを動かした時にどう画像上で動くかを解析することが基礎となっていた。本研究のもう一つの目的は、この特徴抽出や対応づけを前提としない視覚サーボ手法の開発であった。現場でのロボット制御に視覚サーボを応用する際、これまでのアプローチでは、どのような画像特徴を選ぶか、それをどのような画像処理で抽出するかが制御にとって決定的な役割を持ち、画像処理エキスパートの手を必要としていた。 これに対し、本研究では、画像そのものの次元を圧縮し、低次元の空間で画像を表現することで、あとは数学的な問題として一般的な定式化をすることを試みた。こうして、特定の画像処理の性能によらない視覚サーボの一般理論を導いた。 行った研究とその成果を要約すると、以下になる。 (1)本手法の鍵は、画像データの次元の圧縮にある。そこで、実画像の系列を用いて、カメラが運動した時の画像の変化からカメラの運動を表現するための特徴の抽出と、その特徴を表現するデータの次元について、現在開発されている動画像のデータ圧縮法との関連を含めて調査するとともに、固有空間法を利用する手法の研究・開発を行った。 (2)小型カメラを搭載した実験用ロボットハンド・システムを構築した。 (3)上記の固有空間法に基づく視覚サーボ手法によるロボットハンドの行動制御の基本原理を検証した。すなわち、ロボットハンドを運動させたときの画像から、(1)での結果を考察・検証する実験を行った。 (4)光源などの撮像条件を変化させた場合について同様の考察・実験を行なった。 (5)これらの実験結果を総括し、本研究による視覚サーボによるロボットハンドの行動制御の基本原理の有効性を検証した。
|