研究概要 |
本年度は,部屋の中にいくつかの既知物体が存在するといった限定された行動環境に対して視覚,触覚,行動を協調してヒューマノイドロボットにより行動環境を認識する手法を明らかにすることを試みた.具体的には,以下の三つの項目について研究を進めた. (1)視覚と触覚を統合した物体の識別法の解明: LedermanとKlatzkyにより提案されている触覚により環境・物体を探査するアルゴリズムに視覚情報を加えるように拡張することを検討した.また,視・触覚情報を用いた探査行動をいくつかの基本行動により構成し,それらを並列的あるいは直列的に実施することにより,環境・物体情報を獲得する手法を検討した.ヒューマノイドロボットにより3次元空間内に設定された任意の点に触れる動作計画法について明らかにした. (2)知覚空間を考慮した空間記述と行動計画法: ヒューマノイドの動作情報を結合することにより,単カメラからの画像情報のみからでも精度よく,SLAMが実施できる手法を確立した.視覚により環境中の特徴と自己の相対位置関係を計測し自己位置姿勢の推定と環境地図の作成を同時に行う手法について,半球に匹敵する広視野の視覚情報を利用することにより高度化できることを示した. (3)日常生活環境を認識し行動するシステムの実現: 上記(1),(2)で確立されたアルゴリズムについて,ヒューマノイドロボティクスシミュレータOpenHRPを用いたシミュレーションによりその有効性を検証した.ヒューマノイドロボットHRP-2を用いた基礎的な実機実験を行い,研究開発した手法の実時間性も含む実環境での有効性の確認を行った. なお,研究協力者として,産業技術総合研究所・知能システム研究部門A.Kheddar氏,O.Stasse氏,研究代表者の指導学生H.Na氏らの協力を仰いだ.
|