本年度は「集合知を用いた質感認知と物体認知の関係に関する大規模分析」の2年目で最終年度であった.初年度の昨年度は,Web上の大量の「単語付き画像」を利用して,(1)様々な画像特徴量を用いて,画像認識によって認識可能な質感表現を自動的に検出することを行い,並行して大容量ファイルサーバと高速計算機クラスタを導入し,大規模実験のための環境整備も実施した.本年度は昨年度の研究を踏まえて,(1)質感Web画像収集システムの実現,(2)Web収集画像を用いた質感語の視覚性評価実験,(3)画像中の質感領域の推定,を行った. (1) 質感Web画像収集システムでは,様々な質感語について,関連キーワードを入力するだけで自動的にWebから画像を収集し,さらに画像認識手法によってノイズ画像を自動的に除去することによって,画像データセットを自動構築するWebシステムを構築した. (2) Web収集画像を用いた質感語の視覚性評価実験では,(1)のシステムを利用し,122種類の主にオノマトペによる質感表現に対応する画像データを収集し,その「画像認識可能性」の評価を行った.オノマトペとは,擬音語のことで直感的に物体や素材の様子を表現する言葉である.例えば,「ざらざら」「ごちゃごちゃ」などがあるが,それらのうち見た目に関係して単語は一部である.ここでの研究では,Web画像マイニングと画像認識手法を用いて,どのオノマトペが画像の見た目を表す表現で,どのオノマトペが画像に無関係か区別することを行った.質感画像の認識では,Deep Convolutional Neural Network(DCNN)特徴が有効であることが示された. (3) 画像中の質感領域の推定では,(2)では画像全体の認識可能性について評価を行ったが,次の段階として特定の質感に対応する部分を推定する実験を行った.
|