研究概要 |
(1)クロスメディア型検索方式とコンテンツの自律的呈示方式 オフィスや屋外において使用する種々の機器の操作説明書をXMLを用いて状態遷移図表現し,モバイル端末から無線LANで対象物の状態情報を取得し,これに基づきサーバーから操作説明書の該当部分のみを検索し,これを3次元CGアニメーションと合成音声で呈示する試作システムを開発し,国際会議・学術雑誌などにその成果を公表した.さらに,テキスト中心のWeb検索エンジンと,Web上に含まれる画像を検索する検索エンジンなどを複数同時に使用することで,質問キーワードに関連する記述や画像を網羅的に収集する,クロスメディア型メタサーチエンジンを開発した.このシステムの特徴は,利用者が与えた質問を各々の検索エンジンに適した形の部分質問に分解する機構であり,この点が従来のメタサーチエンジンと異なる.また,Web検索エンジンからの出力結果を連続的にわかりやすく表示するために,該当ページの文脈を視覚効果を用いてモバイル端末上で自律的に呈示する方式を開発した. (2)モバイル放送のためのコンテンツの動的複合化方式 コンテンツの動的な複合化を行うために,時空間的に変化するコンテンツ間の関連に基づいて複合化する方式を,申請者の田中が過去に開発した質問対リンク機構を拡張して実現した.また,指定したWebページを受動的に視聴できるようにするために,Webページの内容を,合成音声,キャラクタアニメーション,画像の同期表示を用いて受動的コンテンツに変換するシステムを実際に第3世代携帯電話上に実現した. (3)対話からの話題構造の発見とこれに基づくモバイル検索 携帯電話などにおける複数の利用者間でのチャットやメールによる対話情報を分析し,ここから,対話の話題構造を抽出し,Web検索によって関連情報を自動的に検索したり,適合フィードバックを適応的に行えるような機構を開発した.
|