Research Abstract |
本年度はまず,言語によって指定された物体の視覚認識に必要となる物体モデルの設計とその獲得方法を研究した.まず,物体の表面の模様を中心軸から物体に外接する仮想的な円筒に投影して長方形平面に展開して得られる画像を記録する.この展開画像の取得はマニピュレータを用いて自動的に行う.次に,あらゆる方向から物体を認識するために,その物体を多方向から見て,方向毎に特徴を抽出して登録する.物体の特徴は,物体の大きさ,代表色,及び2次的特徴(代表色以外の一様領域の色,場所,大きさ)である.このうち,物体の大きさと代表色は,物体の領域を切り出すのに必要な特徴であるので,いずれの物体についても登録しておくが,2次的特徴については物体同士の区別がつくような最小限度のものだけを登録しておく.よって,ある物体を登録するときに,同じ代表色を持つ物体が存在しないのであれば,大きさと代表色のみを登録しておき,そうでければ同じ代表色を持つ各物体に対して,区別可能な2次的特徴を登録する. 次に,ロボットがユーザとの会話を通して辞書を拡張していくことにより,ユーザによる言い換え/言い直しなどの負担を軽減していく手法を研究した.具体的には,ユーザが発した単語がロボットの持つ辞書内に存在しなかった場合に,未登録語として,既知の単語(登録語)のどれと同義語であるかを判断し,辞書に登録する.そのために,登録語をあらかじめカテゴリに分けておき,文中におけるカテゴリ間の連鎖確率もあらかじめ求めておく.未登録語が入力されたら,前後の登録語との関係からカテゴリを決定し,そのカテゴリ内で対応する登録語を探す.音(この場合は母音配列)が似ているものがある場合にはその語に対応するとする.ない場合には,発生確率が最も高いものに対応するとする.これらの対応語推定は誤っている可能性があるので,ユーザに対応の推定結果を提示して確認を求め,ユーザが正しいとしたときに,初めて同義語として辞書に登録する. さらに,マニピュレータ,カメラ,PC,レーザレンジファインダ(LRF)を移動ロボットの上に設置し,パーソナルサービスロボットを試作し,冷蔵庫から指定されたジュースの缶を取ってくる作業を実現した.LRFによって冷蔵庫の位置を計測し,手先カメラと力センサで扉や缶の位置を認識して作業を行った.
|