研究課題/領域番号 |
13680471
|
研究種目 |
基盤研究(C)
|
配分区分 | 補助金 |
応募区分 | 一般 |
研究分野 |
知能情報学
|
研究機関 | 福岡大学 |
研究代表者 |
鶴田 直之 福岡大学, 工学部, 助教授 (60227478)
|
研究分担者 |
前田 佐嘉志 福岡大学, 工学部, 助手 (90330901)
森元 逞 福岡大学, 工学部, 教授 (10309891)
|
研究期間 (年度) |
2001 – 2003
|
キーワード | ユーザインターフェイス / マルチモーダル / 意図理解 / 対話システム / 画像認識 / リップリーディング / 音声言語理解 |
研究概要 |
本研究は、画像と音声、タッチパネルを併用したマルチモーダル情報を利用してユーザの意図を理解することにより、自然で頑健な対話型インターフェイスを実現したものである。 ユーザの意図理解は次の3つの段階からなる。(A)システムの周囲で行動する人物等の追尾。(B)システムに接近して来る人物の発見と利用意志の確認。(C)利用中に生ずる対話のためのユーザの意図理解。これまでは(A)および(B)、(C)が個別に研究されており、3つの段階の間を移行する状態を扱った研究はなく、自然なインターフェイスは実現されていない。 本研究では、(A)については他の研究の成果を流用するものとし、以下の3点について新たな方式を提案した。(1)(B)の段階で接近するユーザを検知した場合、システムから能動的な情報収集を行い、それに対するユーザの振舞を解析して自然な対話の開始を実現することにより、(B)から(C)への自然な移行を実現した。(2)(C)の段階において、リップリーディングの併用や対話における文脈情報を積極的な利用により発話認識の精度向上を目指し、自然な対話を可能にするための基礎技術を確立した。なお、ユーザとの対話の進行には、対話プランの動的生成モデルを利用した。(3)(B)および(C)の段階において、対話が安定に進まない場合の最終手段としてメニュー画面およびタッチパネルの併用を前提とした上で、可能な限り音声/画像対話を用いるというメディア選択のための制御方式を確立した。
|