研究概要 |
平成19年度は,初年度に行なった「和音性の評価モデル」の妥当性の検証の結果を受けて,1)和音聴取時における脳機能計測,およびモデルの応用として2)音楽ムードの可視化インタフェースの構築,を行なった. 和音認識に関する神経基盤を明らかにするために,初年度に引き続き,和音聴取時における脳活動についてfMRIを用いて検討した.転回型を含む10種類の和音(長調,短調,減和音,増和音)を14名の非音楽家に聴取してもらい,その時の脳活動を計測した.音楽的文脈を保持した刺激構成とするために,それらの和音の組合せから和音推移刺激として提示を行った(例1増和音→長調).データ解析の結果,和音聴取時では白色雑音聴取時に比較して,上側頭回(BA38),下前頭回(BA46/47)などが特徴的に賦活した.さらに長調と短調,および緊張的和音(減和音と増和音)のそれぞれの和音タイプごとでは,右前頭眼窩野(BA11),楔部(BA17/30)において賦活に違いが確認された。 音楽ムードの可視化インタフェースの構築では,楽曲のムードを規定する重要な要因であり,また調性など従来の知見で用いられてきた音楽特徴量に代わる指標として,1つ1つの和音がもつ独特の響き(=和音性)を提案し,本研究における「和音性評価モデル」の適用を行なった,具体的には,和音性を色彩の違いで表現する可視化インタフェースM3(M-CUBE)の構築を行なった,その結果,非音楽家のユーザに対しても,より直感的でインタラクティブなシステム構成とすることが可能となった.本システムは,情報処理学会主催のインタラクション2008において発表され,参加者から好評を得ることができた。
|