近年の情報化社会、高齢化社会においては顕著なトレンドとして「人に優しいシステム」の追求があげられ、コンピュータが個々の人間の個性や独自性を尊重した上で人間をサポートすることが求められている。このうち特に重要度が増しているのが、人間の心理状態の変化に応じて環境情報をコントロールする「アダプティブ・インタフェース」である。一方、医学・生理学分野の研究成果より、脳波や皮膚電位、心電図等の生体情報から抽出される様々な生理指標が、リラックス度やストレス度(緊張感)、集中力といった快適性を評価する精神状態にかかわる要素を良く反映している事が明らかにされつつある。そこで本研究では、マルチメディア技術によって仮想的に構築された三次元視聴覚環境から刺激を受けている人間の生理指標を計測・分析することで人間が感じている集中力や緊張感を推定し、それに基づいて適度の満足感や快適感が得られるように視覚や聴覚に与えられる刺激をコントロールするアダプティブ・インタフェースの開発を行った。具体的には、(1)被験者をある特定の心理状態に誘導し、その時の瞬時心拍数(HR)、心拍数のMayer Wave成分(MWSA)、心拍数の呼吸同期成分(RSA)、最大皮膚電位反応(SPR)変位、脳波のピーク周波数変化といった複数の生理指標の反応パターンと被験者の集中力及び緊張感との関係を学習する機能(2)立体画像・音響から成る三次元仮想環境で被験者にメンタルワークロードを与え、(1)で開発した手法で得られた情報から被験者の満足感や快適感を適度に保つようコントロール・パラメータを変更して画像や音響に変化を与える機能を実現した. 本研究の成果は、オフィスや家庭、宇宙空間等における人工環境のアクティブ・コントロール技術に大きな進歩を与えることが予想される。また医療現場で、脳における三次元視覚統合機能異常矯正用学習システムとしての応用も期待されている。
|