研究概要 |
本研究では,ネットワーク型擬人化エージェントインタフェースを実現するために,以下の基礎研究・開発を行った. 1. ネットワーク型擬人化エージェントインタフェースの設計 ユーザが新しいwwwページを開くたびに、そのページに関係する擬人化エージェントが画面上に現れて、そのページの内容を音声で紹介したり質問に答えたりするネットワーク型擬人化エージェントインタフェースを設計した。自然感の高い顔を持つ擬人化エージェントのコンピュータ・グラフィックス合成に必要な、顔の輪郭データ、テクスチャデータ、音声属性データ、及び音声対話用データをネットワークを通してwwwサーバ側からダウンロードし、クライアント側で合成する技術を確立した。 2. ネットワーク型擬人化エージェントインタフェース・プロトタイプの実装 1.の設計に基づき、プロトタイプを実装した。プロトタイプ実装による評価では、ダウンロードに伴うネットワーク・オーバヘッドは1エージェント当たり約60KBであった。このオーバヘッドは、処理手法の最適化やデータキャッシュの導入により、さらに軽減することが可能である。 3. 擬人化エージェント・エディタの実装 本インタフェースシステムでは、wwwページの作者が、ユーザ画面に現れる自然感の高いエージェント像をwwwサーバ側で指定できる。顔写真と3次元頭部ワイヤフレームモデルのマッチングを素早く行うために、3点マッチング法を開発した。また、エージェント像の生成に必要なデータセットを一般ユーザが容易に作成できるよう、3点マッチング法を用いた擬人化エージェント・エディタを設計・実装した
|