研究概要 |
本研究では,視覚メディアによるユーザとシステムとの協調的な対話により,ユーザが本来意図した情報を,メディアから適切に復元・理解すると共に,メディア選択やメディア表現の際の基盤となっている視覚メディアと他のメディアとの相互変換のためのユーザ自身のメンタルモデルを獲得することを目的としている. 本年度は,このための具体的事例の1つとして,言葉を用いた地理的経路の移動ロボットへの伝達問題を取り上げ,次に述べるように,記号的な経路表現と,センサデータとしてパターン表現された環境記述との適切な対応向けの実現について検討した.すなわち,人間は,未知環境における経路を他者に伝える場合,"2番目の交差点を左折して..."のように,言葉を利用する場合が多い.ロボットがこのような経路記述に基づいて未知環境中の目的地に正しく到達できるには,言語メディアである言葉の表現する概念記号と視覚メディアである環境の観測データとを対応付けるための概念モデルが必要となる.しかし,これが人間とロボットの間で一致しているとは限らず,このことが両者の意思伝達上の障害となる.そこで,言葉として与えられる経路指示の内容に含まれる文脈的な情報を利用して,自分と異なる概念モデルを持つ相手から伝達された経路指示をロボットが正しく理解すると共に,その結果に基づいてロボット自身の概念モデルを適切なものに修正する処理を実現した. さらに,上とは別の事例として,仮想空間中の物体操作にも焦点を当て,3次元仮想空間中で衣服を対話的に設計できるシステムの構築を具体的な課題として,仮想空間中の人体や布の操作に関するユーザからシステムへの意思伝達処理についても検討を始めた. 今年度は,このためのプラットフォームとなる布シミュレータの構築をほぼ終了したため,今後は,これを用いて衣服設計のための意思伝達問題について研究を進めていく予定である.
|