研究概要 |
情報インフラストラクチャの整備が進み各家庭に浸透しつつある今日、それをお年寄等の弱者に対して、有効に活用できる機能を持つ知的インターフェイスを実現することが重要である。本研究では、弱者の立場に立った知的インターフェイスにおける重要な機能として、1.キーやマウス等を用いずに体表現や言語によりユーザの意図をシステムが把握する機能、2.知情意モデルによりユーザの体表現から(怒っている、困っている等の)感情をシステム側が自ら把握し、ユーザへのガイドやサポートへ結び付ける機能の実現を目的とする。 昨年度までは、下記の1,2の研究に分割し、それぞれ個別に研究を進めてきた。 1. 体表現や言語からの意図するコマンドサインの認識とサインの追加・修正の研究 ユーザの状況から意味のあるサインを抽出する研究を実施し、また、簡単な体表現や言語からの複数のコマンドを実行できるサインの追加・修正機構の研究を実施した。 2. 体表現や言語に基づく感情等の検出とガイドやサポート手法の研究 ユーザの感情等を検出するため、知情意の工学的モデルの研究を進め、感情・意図モデルに関する研究を実施した。さらに、情報機器のガイド手法や福祉機器のサポート手法の研究を実施した。 平成10年度は上述の1,2を統合して実証システムの構築を行った。これにより、システム側が人間の体表現から有効なサインを認識して、知情意の工学的モデルにより人間の感情等を検出し、人間にとって有効なサポートを実現することが可能となった。本システムで弱者を想定し実験を行った結果、人間がお腹を押さえたり、きょろきょろするといった非明示的な体表現であっても、福祉機器の側から「困っている」といった人間の感情を検出し、「心配して人間を助けようと近づく」といった行動をとることが確認され、従来の福祉支援システムと比べ、より積極的なサポートを弱者に提供できる可能性を示すことができた。
|