研究実績の概要 |
健康な若年男性・女性の被験者約20名を対象に機能的MRI実験を行った。まず、楽曲に慣れてもらう目的で、実験参加者には、MRIの外で128種類の楽曲を聴いてもらい、曲の好き嫌いを点数で回答してもらった。次に、MRIの中で脳活動の画像を撮像しながら、同じ128種類の楽曲を聴いてもらって好き嫌いを点数で回答してもらった。MRI実験終了後には、別室に移動してもらって、再度同じ楽曲を聴いてもらったが、ここでは楽曲のどのタイミングが快い、または不快なフレーズであるかを回答してもらった。 次に、個人の楽曲の嗜好を予測するような人工知能を個人毎に作成した。楽曲は全体として好き・嫌いの判断をすることもできるが、一つの楽曲の中でも、特に好みの部分と気に入らない部分があると考え、それぞれの楽曲に対して得られた、快・不快の時系列情報を用いて人工知能の作成を行った。その結果、参加した被験者のほぼ全員で、新しい楽曲に対しても嗜好の時系列を予測できるような人工知能を作成することができた。次にこの人工知能の内部の情報表現を使って、人工知能のどのレベルが人間のどの脳領域と対応を持つかを調べた。その結果、入力(音楽刺激)に近い情報を処理する階層は、人間の聴覚野と対応していたのに対し、出力(快・不快の感情)に近い、より上位の階層は前頭眼窩野や、楔前部と呼ばれる、より抽象的な情報を処理する領域と対応していることが明らかになった。 これらの結果は、視覚の情報処理でみられたような、人工知能と脳の対応関係が、聴覚の情報処理でもみられることを示している。従来の研究では、より単純な聴覚刺激判断を行う人工知能と聴覚野の対応関係が示されていたが(Kell et al., 2018)、今回のように、音楽の好き嫌いの判断のような複雑な情報処理においても、人工知能で模倣可能であることが示された。
|