既に提案を行っていたオブジェクトの言語メディアとしての外観情報のWebからの抽出手法を出発点として、まず、オブジェクトの画像メディアとしての外観情報をWebから検索する手法について取り組んだ。オブジェクトの情報抽出に関する先行研究の調査を行った上で、外観情報に特化した抽出手法を実現するために必要な基盤技術を洗い出しを行った結果、Webから抽出した言語メディアとしての外観情報(特に色名)を画像特徴量に変換し、その画像特徴量に基づいて画像検索を行うことで、対象オブジェクトの「典型的な画像」を検索する手法を考案した。次に、これまでの研究を進め、オブジェクトのコンテキストに依存する外観情報をWebから抽出する手法の開発に取り組んだ。これまでの提案手法により典型的な外観情報は抽出できるが、オブジェクトの外観は一般に、その対象オブジェクトや観測者の置かれているコンテキスト(時間や空間、状況)に依って変化するため、ユーザの置かれているコンテキストが時々刻々変化するモバイル・ユビキタス環境における空間情報アクセスで利用するには典型的な外観情報だけでは不十分である。そこで、典型的な外観ではないが、対象オブジェクトの外観が変化するようなコンテキスト(語)をWebから抽出し、そのコンテキスト毎に言語メディアとしての外観情報をWebから抽出したり、画像メディアとしての外観情報を検索したりする初歩的な手法を考案した。この初歩的な研究の結果、典型的な外観情報についてはWeb上にある程度十分な量存在するが、コンテキスト毎の(特に言語メディアとして)外観情報はWeb上にあまり十分な量が存在しないことも分かった。
|