研究課題/領域番号 |
12308016
|
研究種目 |
基盤研究(A)
|
配分区分 | 補助金 |
応募区分 | 一般 |
研究分野 |
知能情報学
|
研究機関 | 和歌山大学 (2002) 京都大学 (2000-2001) |
研究代表者 |
和田 俊和 和歌山大学, システム工学部, 教授 (00231035)
|
研究分担者 |
亀田 能成 京都大学, 学術情報メディアセンター, 助手 (70283637)
中村 恭之 和歌山大学, システム工学部, 助教授 (50291969)
呉 海元 和歌山大学, システム工学部, 助教授 (70283695)
杉本 晃宏 京都大学, 情報学研究科, 講師 (30314256)
|
研究期間 (年度) |
2000 – 2002
|
研究課題ステータス |
完了 (2002年度)
|
配分額 *注記 |
38,070千円 (直接経費: 32,100千円、間接経費: 5,970千円)
2002年度: 11,180千円 (直接経費: 8,600千円、間接経費: 2,580千円)
2001年度: 14,690千円 (直接経費: 11,300千円、間接経費: 3,390千円)
2000年度: 12,200千円 (直接経費: 12,200千円)
|
キーワード | 色ターゲット検出 / 最近傍識別器 / カメラキャリブレーション / 円を用いたHomography / 環境地図の生成 / 障害物と遮蔽物の区別 / アクションコマンドと行動の関係 / ロボットの行動学習 / ロボット / 身体性 / 外部視覚系 / 摩擦係数の計測 / 行動の分類 / 移動ロボットの試作 / localization / 外部視覚 / ステレオカメラ / 視点固定 / PCクラスタ / 実時間形状復元 |
研究概要 |
本研究では、知能ロボットの知覚と行動の緊密な相互作用を作り出すために、ロボットの身体を介して知覚と行動の間に閉ループを作り、この閉ループと環境との相互作用からロボットを取り巻く環境を認識するという問題を取り扱った.上記目的を達成するため、外部カメラでロボットの環境内での位置と姿勢を求める方式を採用し、ラジコンカーを改造した4輪車をコンピュータからコントロールする装置を開発した。まず、ラジコンカーに搭載したLEDを外部カメラによって確実に捉えられるようにするため、最近傍識別器を用いた高精度な色ターゲット検出法を提案しプロトタイプシステムの開発を行った。このシステムは、画面上でターゲヅトの教示を行うだけで、LEDだけでなく肌色など任意の色ターゲットを検出することができ、大学・企業などの研究機関ですでに利用されている。次に、色検出によって得られるラジコンカーのLEDの軌跡から、ロボットの移動する平面とカメラの視線のなす角(仰角)、およびカメラの焦点距離を自動的に求める方法を提案した。これは、4輪車の場合、ステアリング角を一定にして低速で進むと平面上で真円の軌道を描くことを利用して仰角を求め、平面を真上から見下ろす映像を生成する自動キャリブレーションシステムである。これは、スタジアムなど被写体までの距離が極端に長い場合のカメラ較正を行う場合に必要であった労力と手間を著しく削減することができる技術である。このようにして床面を真上から見下ろすことにより、実シーン中でのロボットの動きが観測できるようになる。これらのシステムを利用し、ロボットに送信したアクションコマンドとLEDの位置変化の相関関係間が崩れる場合を自動的に検出し、ロボットの運動が障害物によって妨げられるケース、遮蔽物によってカメラからロボットが見えなくなるケースの2つを区別し、これら障害物と遮蔽物によって囲まれる環境マップを作成することに成功した。
|