察するインタフェースに関して、下記の研究を行った。 (1)対人行動における「察する」振舞 ロボットの自律移動を実現するための基礎技術として、動的環境下において、観測領域が動的か静的かの度合を確率的にマッピングすることにより、動物体に影響されることなく室内形状を把握し、ロボットの自己位置推定をロバストに行う方法を考案した。 複数の歩行人物及び障害物が存在する廊下において、ロボットがユーザと連れ立って並走・縦走を自律的に切り替えながら移動する方法を検討した。ステレオカメラによりロボット前方の距離情報を取得し、廊下の壁、対向人物、障害物、ロボット各々の位置をx-z平面画像上で認識する。また、ロボットと同行ユーザとの位置関係を全方位カメラ画像から取得する。廊下を幅方向に複数のレーンに分割し、ロボット、対向人物、同行者の各々が位置するレーンを把握し、ロボットが同一レーン内で対向人物や障害物と衝突することがないように、同行者との並走、縦走を自律的に切り替えられるようにした。 更に、曲がり角もある廊下において、複数歩行者及び障害物どの衝突を回避しながら、ロボットが目的地まで自律的に移動する方法を考案した。カルマンフィルタを用いた歩行者位置の推定手法、歩行者の位置と歩行速度を考慮したポテンシャルフィールド法、目的地が視野外にある場合のサブゴール設定法等の導入により、ロボットの自然な自律移動を実現した。 (2)対面動作における「察する」振舞 コンピュータ/ロボットとユーザとのインタラクションにおいて、ユーザの首振り動作、視線の動き、反応のタイミングを観測し、これらの情報からユーザの内部状態・意思を推定し、推定結果に応じた反応を返すようにした。ユーザが明示的に指示をしなくても、システム側がユーザの状況に合せて(希望・意思を察して)反応するような新たなインタフェース形態である。
|