研究課題/領域番号 |
20J22906
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
審査区分 |
小区分51010:基盤脳科学関連
|
研究機関 | 東京大学 |
研究代表者 |
佐藤 元重 東京大学, 薬学系研究科, 特別研究員(DC1)
|
研究期間 (年度) |
2020-04-24 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
3,100千円 (直接経費: 3,100千円)
2022年度: 1,000千円 (直接経費: 1,000千円)
2021年度: 1,000千円 (直接経費: 1,000千円)
2020年度: 1,100千円 (直接経費: 1,100千円)
|
キーワード | neurofeedback / brain computer interface / auditory cortex / local field potential / machine learning / explainable AI / VQVAE / integrated gradient / 聴覚デコーディング / 脳機能拡張 / 深層学習 / Decoded Neurofeedback / Local Field Potentials |
研究開始時の研究の概要 |
脳は膨大な数のニューロンが様々なパターンで活動している.これらのニューロンは各々が自由に活動しているのではなく,様々な制約のもと,生じうる脳活動パターンは限られている.一方で,脳活動パターンが豊富な人ほど認知課題の成績が高いという知見がある.これらの知見から,本研究では脳活動パターンを人工的に増加させたときに,認知機能が向上すると仮説を立て,検証を行う.その手法として,人工知能を用いて脳活動をリアルタイムに解析し,出現頻度の低い脳活動パターンへと誘導する.多様な脳活動パターンを獲得したラットに,通常のラットには区別できないパターン認識課題を行い,学習成績が向上するか検証する。
|
研究実績の概要 |
脳と人工知能の融合による知能拡張研究を行った。ラットの聴覚認識能力には限界があり、人間の言語のような複雑な音認識が難しいが、聴覚皮質の脳波レベルでは深層学習を用いて言語の区別ができ、さらにラットが聞いた経験のないフレーズに対しても正しく脳波から言語を判別することに成功した。そしてこの結果を利用して、深層学習モデルの判別結果に応じて体性感覚皮質を異なるパターンでリアルタイムに刺激したところ、言語の聞き分けを学習できることが分かった。また学習成立後はフィードバック刺激をオフにしても、全く新しいフレーズを聞かせても正しく言語を聞き分けられるようになっていることも確認した。深層学習モデルが脳波のどの部分に注目して言語予測を行っていたか調べるIntegrated Gradientsの解析を行ったところ、特に学習後には、音源定位や周波数処理を担う領域で貢献度が下がり、学習やコミュニケーションに関わる領域での貢献度が上がる傾向を発見した。ラットにとって言語という概念は未知のものであるが、音の高次な情報処理を担う神経回路が言語予測にも適応して用いられた可能性を示している。 加えて、深層学習がどこまで複雑な聴覚情報を解読できるか調べるため、言語の分類に用いていたネットワークよりもパラメータ数の多い予測モデルを作成した。このモデルは量子化された潜在空間を持つ音の生成モデルの潜在空間を予測する。訓練時には音声認識モデルと似た階層処理を持つように訓練するPerceptual Lossを導入した。その結果、脳波から音声スペクトログラムの再構成に成功した。この手法は、言語数やフレーズ数が上限となるクラス分類とは異なり、音の構成情報をそのまま脳波から再現することができるため、より汎用的な脳波解読及びニューロフィードバック実験に使用することができる。
|
現在までの達成度 (段落) |
令和4年度が最終年度であるため、記入しない。
|
今後の研究の推進方策 |
令和4年度が最終年度であるため、記入しない。
|