研究概要 |
本研究の目的は,次世代のユーザインタフェースに関する誤り回復技法を確立することである.次世代のインタフェースに対するインタラクションの仕方として固視と音声を使って日常生活と同様な自然なインタラクションを実現する研究を行った.問題は,入力された音声と固視情報についてのシステムの認識能力である.音声と固視が単独では,システムの認識誤りが多く発生するモダリティである.本研究の目的は,それら曖昧な2モダリティを組み合わせることによって,適切で頑健なインタラクションシステムを構築することにある.具体的な研究内容を以下に示す: (1)はじめに,認識誤りがよくおこる 固視と音声の2モードをいかに組み合わせてシステム全体の誤り率を低下させインタラクションの効率を上げるかについて研究する. (2)2番目に,作成したマルチモーダル統合方法を分析評価するために,誤り処理についての新たな効率評価を提案する.この評価法により,本研究で提案するマルチモーダルシステムが最適である条件も発見することができる. (3)さらに,マルチモーダルの誤りの分類をすることから,それらの誤りを減少する方法を見つけることができた.マルチモーダルの誤りの分類をすることによって,誤りの自動修復システムを開発するひとつの方法を得ることができた. モダリティの統合の分析と評価実験から,本研究で提案した統合方法はシステムの認識誤りとタスク実行時間を大きく減少させ,さらに,各モード単独では得られない発話の簡略が可能となる.認識誤りを最小にして実行時間を減少させる,簡単な文法と視線操作領域のパラメータ値を見つけることができた.
|