Research Abstract |
これまでに作成したアバタでは,把持対象に手を伸ばしたとき,腕が環境と干渉しないように経路変更をしたとき,描画の中割点が変更され,腕の移動速度が不連続に変化することがあったので,動作が平滑になるよう中割点の設定方法を変更した. 類似した仮想物からユーザーが指さしで指示したものをアバタが把持する際に,指さし動作の曖昧性のためアバタが指示とは異なったものを把持しようとすることがある.これまでは,「それは違う」ということにより,アバタの行為を変更させたが,ユーザーが意図したものがどの方向にあるかを,「もっと右」といったり,手振り動作を伴いながら「もっとこっち」といったり,あるいは意図したもののサイズを示すために両手でサイズを示しながら「もっと大きいもの」,「これくらいのもの」ということが多い.このような,動作と断片的な発話の同期認識を行うことにより,より自然な対話が可能となった. これまでは,発話表現から行動が直接求められる場合を扱ってきた.しかし,一般に行為には,前提条件があり,それを満たすためにいくつかの副目標の達成が必要になる.このためには,動作計画立案を行う推論機能を加えたことから,複雑な動作生成が可能となった. 既に,これまでに万年筆の仮想ショッピング店を対象とした例題を作成した.ユーザーの指示が漠然過ぎて指示物候補がしぼりこめない場合,対象がもつ属性の分布に基づいて候補を縛り込む属性をもとめ,アバタから逆にユーザーに属性情報を質問する機能を付け加えたことから,指示物の速やかな同定が可能となり,遠隔な会話が可能となった しかし,アバタが歩行し,しゃがみ込んで物を掴むといった柔軟な動作の実現,一般的な仮想ショッピングでアバタを店員として,ユーザーを対話させる機能を実現するには到らなかった.
|