研究概要 |
ユーザインタフェースは従来の文字主体のものから視覚情報を用いたものに移り変わってきている.更にマルチメディア技術の進歩は,音や動画なども交えた,よりユーザ親和性に優れたインタフェースの提供を可能にしている.ただし対話メディアに複数のメディアを活用するだけでは真に使いやすいシステムとは言えず,コンピュータ処理の質的改善が欠かせない.本研究では,そのような目標に向けたひとつのアプローチとして,コンピュータに社会性を持たせるための基礎的研究を行った. 社会性の提供に向けては,まず人間の置かれている“状況"というものをコンピュータが把握する必要がある.そこで状況についての検討をおこない,意味内容の違いから状況を3つのレベルに分類した.さらに,状況認識に基づいた情報管理・アクセスのための基本的枠組みを提案した. また,画像ならびに音声が提供し得る意味について詳細な検討をおこなった.各種メディアデータとして得られる情報を統合し,より高度な状況理解を実現するための研究を進めた.実際に音声,音,映像から各種の特徴データ抽出実験を行なった.さらに,音と映像以外の状況認識の手だてとして,物理的位置の利用可能性について検討をおこなった.位置認識デバイスにGPSを用いた実験の結果,位置情報は状況認識にあたって極めて有効に機能することを確認した. 一方,人間とシステムの関係に注目するだけでなく,人間と人間の間で交される対話の過程への状況の利用促進を図ることを目標に,物理的に同じ場所を共有する人間同士の間での情報交換を支援する機能を開発した. プロトタイプシステムの構築を行い,提案した手法の有効性を確認した.
|