研究概要 |
本研究は,ユーザの情動を感知する情動センシング,情動をコンピュータ内で認知・利用する情動アナリシス,情動に適応する画像や映像を合成する情動適応型イメージシンセシスの各フェーズからなる閉じた処理ループを構成することにより,人間中心の情報ネットワークシステムの重要な基盤技術としての新しいCG技術-affective renderingの確立を目的としている.初年度に当たる平成21年度では,まずCG画豫をみるユーザの生体情報を取得し,生体情報からユーザの情動を自動推定する情動センシングと情報アナリシス技術の確立を目指して広く情報収集を行うと同時こ基礎的な実験を行った.実験では色に焦点を当て,デスクトップ環境において画面の色の組み合わせを変化させた場合のユーザの情動の変化を捉えられる生体情報を選出し,それを色が作業時のユーザの情動に対する影響を定量的に調査した.また生体情報を用いて作業時のユーザの心理的状況をモニタリングし,ユーザの状態を常に最適に保てるように色をリアルタイムに変化させることの実現可能性を示した.情動適応型イメージシンセシス技術の確立に向けては,色,形状,動きの3つのパラメータを変化させながら作成した映像がユーザの覚醒度にどう影響するかを調査する実験を実施し,ファジー推論により生体情報から覚醒度を推定する手法,及びユーザのある時刻の覚醒度に合わせて,映像をリアルタイムに切り替え,ユーザの覚醒度を望む方向に誘導する手法の開発と検証実験を行った.一方分担者の高橋は主に視線や投影パラメータと情動との関係の数理モデルの構築を目的として,21年度は人間の視覚的特性を考慮したCGレンダリング及び情報可視化アルゴリズムの開発を行った.
|