1. ユーザや周囲環境に関するマルチモーダル情報の処理手法に関して、下記の研究を行った。 (1)マイクロホンアレーにより取得した多チャネルの音情報から遅延時間マップを用いて3次元音源位置を推定する手法を考案した。音源の尤度を時間方向で加算処理することで、複数の音源に対応できるようにした。また、割り込み音について、周波数情報と音圧情報、及び画像情報との統合を行い音源種別の識別を可能にした。 (2)ロボットと複数の人間とのコミュニケーションを円滑に行えるようにするため、複数人が重なり合って見える環境においても、挙手認識を行い、更に挙手した人物の顔位置を探し、どのユーザが挙手しているかを認識できる手法を開発した。実空間内の点に対するX-Zプロット画像を作成し、また、腕により連結している手と顔のペアを探していく手法により、手前の人物に隠されて顔や腕領域が見えない場合にも、見えている手と腕の領域から顔位置を推定できるようにした。 (3)HSV色空間に対するセグメンテーション結果と距離情報を統合することで周囲環境のモデルを動的に生成し、歩行者の検出並びに追跡を行う手法を考案した。この結果に基づき、室内環境下で、ロボットが歩行者との衝突を回避して自律移動することができるようにした。 2. 察するインタフェースの具体的アプリケーションとして、廊下をロボットが人間と並走の形態で移動していて複数の対向歩行者とすれ違う場合に、ステレオカメラ及び全方位カメラで周囲を観測しながら、これらの人間の動きに合わせて並走と縦走の形態を自律的に切替えながら移動する方法を開発した。また、ロボットが人間と同じ生活空間内を移動する際の障害物への対応について、回避だけではなく、周囲環境への配慮を行いつつ働きかけを行う方法について基礎的検討を行った。
|