本研究は、様々な映画を視聴している時の脳波データ、自律神経データ及び、映画に対するアンケートデータなどの統合的なデータを取得し、共感に関するモデル化を進めることを目指した研究である。 これまでに蓄積したデータは500名近くあり、さらに、映画を視聴中のデータであることから、一人あたり2時間程度あるため、データ量としては膨大になってきている。それ故、2023年度においては、解析の補助者を雇用し、脳波データや自律神経データとしての心電図のデータ解析を精力的に進めた。そして、並行して、昨年度までに解析が終わったデータを利用して、映画の前後での気分の変化の類似度を、脳波の同期のみからと脳波の同期にHeartbeat evoked potential(HEP)を加えた場合とで推定するモデルを構築し、比較したところ、HEPを加えたときの方が推定結果が良いという結果が得られた。HEPは自律神経の変化を内受容感覚を通して脳がモニタリングしている反応であると考えられることから、自律神経に関連する脳波指標も入れた方が共感の推定精度を向上させることが出来る可能性が示唆された。また、映画視聴中のEye Fixation Related Potential (EFRP)の自動処理化のモデル化も進め、ニューラルネットワークモデルを利用することである程度の自動化が可能となった。また、現在の実験は映画の視聴はプロジェクタでスクリーンに投影した形で行っているが、今後はヴァーチャルリアリティ(VR)環境での視聴が増えていくと思われ、また、VR環境では気分が変わることが知られていることから共感に影響を与える可能性があるため、VR環境での実験系の構築も進めた。
|