察するインタフェースに関して、下記の研究を行った。 1.対人行動における「察する」振舞 廊下や室内などの日常環境下において、ロボットが周囲環境(障害物や複数の歩行者)の状況に合わせて、同行者と並走する、後方を追従する、前に位置するなど同行者との相対的位置関係を臨機応変に変化させながら安全に移動する手法を考案した。レーザレンジファインダにより取得した距離情報に基づいて作成したX-Z平面画像を用いて、同行者の向きや同行者との位置関係、周辺人物の存在や速度を認識する。人工ポテンシャル法を使用して、引力と斥力の計算結果から移動方向の決定を動的に行えるようにした。 廊下の曲り角や部屋の出入口における出会い頭での衝突を防ぐために、マイクロホンアレーで受信した音のマイクロホン間音圧差の変化から、視覚では捉えられない物陰の状況をロボットに予測させる手法を考案した。音源尤度マップや視覚情報と組合せることで、状況に応じた適切な動作を選択できるようにした。 2.社会性を持った振舞 実演販売や演説などにおける複数人の聞き手の立ち位置を、頭上カメラによって撮影した画像を用いて把握し、より多くの聞き手が見易い位置関係となるようにロボットに自律的に聞き手の立ち位置を調整させる方法を考案した。ロボットは聞き手のパーソナルスペースに留意してより良い陣形のシミュレーションを行い、発話と音声認識によるインタラクションを通じて相手の反応に応じた立ち位置の誘導を行う。 複数のテーブルが配置された室内の任意の席に着席した複数人のユーザを対象にした挙手動作認識手法を考案した。個々のユーザの特定のために入室する人物をカメラで撮影し、服の色情報を取得する。ステレオカメラ及びレーザレンジファインダから得られる色情報と距離情報を用いて、入室してきた人物との対応付け、及び、胴体、頭部、腕の位置関係の検出に基づく挙手動作認識を行えるようにした。
|