Project/Area Number |
62550263
|
Research Category |
Grant-in-Aid for General Scientific Research (C)
|
Allocation Type | Single-year Grants |
Research Field |
計算機工学
|
Research Institution | Osaka University |
Principal Investigator |
辻 三郎 大阪大学, 基礎工学部, 教授 (60029527)
|
Co-Investigator(Kenkyū-buntansha) |
浅田 稔 大阪大学, 工学部, 講師 (60151031)
安部 憲広 大阪大学, 基礎工学部, 助教授 (00029571)
谷内田 正彦 大阪大学, 基礎工学部, 助教授 (20029531)
|
Project Period (FY) |
1987
|
Project Status |
Completed (Fiscal Year 1987)
|
Budget Amount *help |
¥1,800,000 (Direct Cost: ¥1,800,000)
Fiscal Year 1987: ¥1,800,000 (Direct Cost: ¥1,800,000)
|
Keywords | センサ融合 / 自律移動ロボット / 視覚 / 傾斜角 / 移動 / 世界モデル |
Research Abstract |
自律的に知的行動をするシステム(自律ロボット)は, 視覚・触覚・平衡感覚などを有機的に利用するセンサ融合の研究の必要性が着目されている. 本研究は, 黒板の機能を利用して, これらの情報の記述・処理, 仮説の生成と矛盾の検証を行うシステムを実験し, その有効性を確める. 1.センサ融合への黒板の利用 知識処理ツールESHLLを用いて, 各種センサ情報を黒板に記述し, その不確実性を検証しながら世界モデルを修正するシステムを実験し, その有効性を確かめた. 2.各種センサ情報の融合 (1)傾斜角・移動・視覚センサの融合 ロボットが移動中の振動を傾斜角センサで測定し, 視覚情報の補正を行う方式実験し, 従来の視覚のみの方式に比べて処理の簡略化が得られた. 移動・傾斜角・視覚の融合実験を坂道移動の場合について実験した. また, 室内を移動しながら観測をくり返すロボットに対して, 複数回の観測を融合する新しい方式を開発し, 比較的簡単な処理ロボットの位置の算定と世界モデルの作成が可能となった. (2)距離・視覚・移動センサの融合 レーザ投光による距離画像, 視覚, 移動センサの情報を融合し, OPS83により人工物・自然物を判定する知識を表現してシーンの解釈の実験を行った. 3.各種センサ情報に基づく世界モデルの建設 上記の各種センサ融合の結果は, いずれも世界モデルの作成に用いられるが, その表現方式として移動とともにロボットが座標系を自律的に選択する方式を考案し, 実験によりその有効性を確かめた. 今後は, 屋外環境に対応するため色情報を融合するより高次のシステムの研究を行う予定である.
|
Report
(1 results)
Research Products
(4 results)