Research Abstract |
我々は,携帯端末のカメラ機能を利用して複数の実空間コンテンツを重ね合わせる操作によって,複数の実空間コンテンツに含まれる情報をユーザが効率的かつ効果的に利用可能な手法を開発した.本手法では,重ね合わせちれた実空間コンテンツを,相互の意味内容に基づいて仮想的に融合し,拡張現実として携帯端末上のディスプレイに表示する.この際,存在する実空間コンテンツの種類には多様性があり,重ね合わせのパターンによって複数の融合形式が考えられるため,それらの融合を統一的に扱うモデルが必要である.本研究では,コシテンツの融合表現モデルとして,「アイコン化モデル」,「クリッピング・モデル」,「アイコン・フィールド・モデル」を開発した.さらに,これらの融合表現モデルに基づいた視覚表現を生成する一般的なモデルとして,ビジュァル・ジョイン演算を開発した.ビジュアル・ジョイン演算は,形式的に定義可能であり,複数の実空間コンテンツに含まれる画像を,その意味的な関係に基づいて融合可龍である.ここで,画像の融合にアフィン変換に基づいて行われるが,そのパラメータは画像のメタデータに基づいて自動的に決定される.ビジュアル・ジョイン演算は,リレーショナル・データモデルの結合演算が複数の表を合成して新しい表を構成するのと同様に,メタデータが付与された複数の2次元画像を,メタデータが表す意味的な内容に基づいて合成して新しいメタデータ付きの2次元画像を構成可能である.本研究で開発した実空間コンテンツの融合表現モデルとそれに基づくビジュアル・ジョイン演算は,ユーザの目的に応じた意味内容に基づいた様々な種類の実空間コンテンツを仮想的に合成ための一般的な枠組みを提供する.さらに,提案手法に基づいたプロトタイプ・システムを用いた被験者実験により有効性があることを検証した.
|