研究概要 |
本研究の目的は炊世代のユーザインタフェースに関する誤り回復技法を確立することである.次世代のインタフェースに対するインタラクションの仕方としては,PDA,ペン,音声,ジェスチャー,視線などマルチモーダル入力/出力を研究対象にする. 成果1.誤りの視覚的探索による発見機構とツールの評価 操作対象のオブジェクトごとに関連するコマンド履歴をもたせる機構,およびオブジェクト間に制約のある場合の履歴処理アルゴリズムを実現した.さらに,この考えをもとに,作業領域のスナップショット列からなるアニメーション機構をユーザインタフェース開発環境に付け加えて,スナップショット中のオブジェクトを選択することによって関連コマンドを利用者が検索できるインタフェースツールを作成した. さらこのツールの視覚的探索の実験課題についてユーザビリティ(評価)テストを行い,このツールの有効性および視覚的探索パターンタイプを見つけることができた. 成果2.画像の2次元配置(サムネイル)で特定の画像を目で探す視覚探索におけるデータの記録方法を提案し,3種類の探索パターンを見つけることができた. 成果3.Excelのような記入欄の指定とマウスカーソルの移動に人間の固視情報を利用するシステムを作成し,評価テストを行いその有効性を示した. 成果4.仮想と実空間を混合した複合現実空間における新しいインタラクション方法として,頭部と体のひねり情報を取り入れたインタフェースを構築し,実験によりこのインタフェースの有効性を示した.
|