研究概要 |
画像内容検索に関する研究は,画像認識の応用研究の一つとして,盛んに行われてきているが,利用者の主観と画像特徴量とのギャップ(セマンティック・ギャップ)を埋めるには至っておらず,課題として残されている。そこで,本研究では,対話型スケッチ画像検索において,データマイニングを応用して,膨大なデータベース画像,スケッチ図,利用者の適合評価から,有用な情報を取得し,セマンティック・ギャップを軽減し,検索精度・効率を向上させることを目的とする。スケッチは利用者からの自由度の高い入力であるため,扱いが難しい反面,これをうまく利用することができれば,画像特徴量と利用者の主観との間に隠された有用な関連性を発見できると期待できる。 クエリー入力がオンラインであることに着目し,あらたに入力中のスケッチと過去に入力済みのスケッチの入力過程で類似するスケッチを探索することで,クエリーの予測を可能にした,予測クエリー提示支援によるスケッチ画像検索システムを構築した。多様性に富んだ予測クエリーを提示するため,特徴量に階層的クラスタリングを適用し,予測クエリーの冗長性を軽減した。このとき,利用者とシステムの対話を利用し,適切な階層でクラスタリングを行うことを可能としている。また,利用者とシステムの対話を利用し,適合性フィードバックを拡張することで,クラスタリングによる予測と人間の主観との間に生じるセマンティック・ギャップを軽減することを可能とした。 画像データベースに本研究機関に開発した手法を適用したところ,30%程度のクエリー入力で,検索が可能になった。また,適合率を維持したまま,再現率を30%程度向上させることを確認した。
|