Project/Area Number |
21H05053
|
Research Category |
Grant-in-Aid for Scientific Research (S)
|
Allocation Type | Single-year Grants |
Review Section |
Broad Section J
|
Research Institution | The University of Tokyo |
Principal Investigator |
長井 志江 東京大学, ニューロインテリジェンス国際研究機構, 特任教授 (30571632)
|
Co-Investigator(Kenkyū-buntansha) |
熊谷 晋一郎 東京大学, 先端科学技術研究センター, 准教授 (00574659)
和田 真 国立障害者リハビリテーションセンター(研究所), 研究所 脳機能系障害研究部, 研究室長 (20407331)
|
Project Period (FY) |
2021-07-05 – 2026-03-31
|
Project Status |
Granted (Fiscal Year 2024)
|
Budget Amount *help |
¥189,150,000 (Direct Cost: ¥145,500,000、Indirect Cost: ¥43,650,000)
Fiscal Year 2024: ¥35,880,000 (Direct Cost: ¥27,600,000、Indirect Cost: ¥8,280,000)
Fiscal Year 2023: ¥40,040,000 (Direct Cost: ¥30,800,000、Indirect Cost: ¥9,240,000)
Fiscal Year 2022: ¥35,880,000 (Direct Cost: ¥27,600,000、Indirect Cost: ¥8,280,000)
Fiscal Year 2021: ¥43,290,000 (Direct Cost: ¥33,300,000、Indirect Cost: ¥9,990,000)
|
Keywords | 予測符号化 / 自己認知 / 発達障害 / 認知発達ロボティクス / 計算論的神経科学 / 発達障害当事者研究 / 認知神経科学 |
Outline of Research at the Start |
本研究では,認知発達ロボティクス・認知神経科学・発達障害当事者研究を融合することで,認知機能における個人の多様性の発生機序をシステム的に理解し,発達障害者の自己認知を支援することを目的とする.脳の一般原理である予測符号化理論に着目し,予測精度や階層性,時定数などの変動が,定型発達者と発達障害者の個性を連続的なスペクトラムとして表現することを検証する.本研究の成果により,すべての人の個性を正しく理解し,個性を生かす社会の実現に貢献する.
|
Outline of Annual Research Achievements |
本研究では,認知機能の多様性の発生機序の理解に向けて,認知発達ロボティクス・認知神経科学・発達障害当事者研究を融合した超学際研究を推進してきた.これらを融合した3つの研究項目について,2021-2022年度は以下の成果を挙げた. 【項目1-3共通】自己認知や予測符号化に関する従来研究を総括し,認知個性の発生機序に関する初期仮説を提案した.予測符号化処理における予測精度や階層性,時定数などの変動が,自己認知や多感覚統合に与える影響を議論した.また,項目1-3で共有可能な,自己認知課題を設計・開発した. 【項目1】当事者研究では,これまでに収集した語りのデータを網羅的かつ客観的に分析し,多様性の発生機序仮説を提案した.また,次年度以降の仮説駆動型当事者研究の実施に向けて,予測符号化理論に関するアニメーション教材を開発した.認知神経科学研究では,定型発達者と自閉スペクトラム症(ASD)者を対象に,自己認知に関する心理物理実験を行なった.触覚時間順序判断課題(Wada et al., 2023)や,視覚と味覚の多感覚統合(Chen et al., 2022),表情認知(Harada et al., 2023)などの複数の課題において,予測符号化仮説を支持する結果を得た. 【項目2】認知発達ロボティクス研究では,予測符号化理論に基づく神経回路モデルを用いて,多様性の発生機序を構成的・解析的に検証した.描画課題では,感覚・予測信号の精度の変動が個人の多様性を説明すること(Philippsen et al., 2022a; 2022b),視知覚課題では感覚・予測信号の精度に加えてモデルの内部表象が,個人や文脈に起因する多様性を説明することを明らかにした(Tsfasman et al., 2022). 【項目3】自己認知の介入と発達障害者支援に向けて,多感覚信号を統合したVR装置を開発した.内受容感覚が身体知覚に与える影響を検証するため,装着者の心拍を視聴覚信号を介してフィードバック可能な機能を実現した.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
本研究では,認知機能の多様性の発生機序として,予測符号化理論に基づく仮説を提案し,構成的・解析的アプローチから仮説の妥当性を検証してきた.予測符号化理論は,近年,脳の一般原理として高い注目を集めているが,さまざまな認知機能レベル(低次・高次の認知機能)と動態レベル(時間的・空間的・社会的動態)で,本理論の妥当性を包括的に検証した研究は存在しない.本研究では,予測符号化処理を規定する因子の中でも,特に(a)予測精度,(b)階層性,(c)時定数,(d)異種感覚統合,(e)環境要因の5因子に注目し,これらの因子の変動がさまざまな認知機能・動態レベルの多様性を説明するという仮説を立て,3つの研究項目に取り組んできた. 【項目1】では,発達障害当事者研究と認知神経科学研究を融合することで,自己認知における多様性の発生機序仮説を生成した.特に,当事者研究による主観的体験と,心理物理実験による知覚運動データを比較することで,異なる認知機能レベルにおける多様性の機序の理解を試みた.【項目2】では,予測符号化理論に基づく神経回路モデルを用いて,多様性の発生機序を構成的・解析的に検証した.描画や視知覚などの課題を対象に,異なる動態レベルでの多様性が,感覚・予測信号の精度やモデルの内部表象の変動として説明しうることを明らかにした.【項目3】では,自己認知の介入と支援に向けて,多感覚信号を統合したVR装置を開発した.特に,心拍を視聴覚的にフィードバックする機能を実現することで,自己認知における内受容感覚の役割の理解を試みた. 以上のように,相補的なアプローチである認知発達ロボティクス・認知神経科学・発達障害当事者研究を有機的に融合することで,全ての研究項目において順調に成果を挙げている.今後は,これらの研究項目をさらに密に連携させることで,当初の研究目的である多様性の発生機序の理解とそれに基づく発達障害者支援を実現する.
|
Strategy for Future Research Activity |
今後は3つの研究項目をより密に連携させることで,認知機能の多様性の発生機序を包括的に理解し,発達障害者支援を実現する. 【項目1】前年度までに作成した予測符号化理論のアニメーション教材を用いて,仮説駆動型の当事者研究を実施する.ASD者の自己認知に関する主観的体験を本理論に基づいてテーマ・因子分析することで,自己認知と予測符号化処理の関連を明らかにする.さらに,自己認知や多感覚統合に関する認知神経科学実験を実施し,心拍などの内受容感覚の変動や,予測精度に関わる神経伝達物質の変動が,知覚運動の多様性にどのように影響するのかを検証する. 【項目2】前年度までに開発した神経回路モデルを用いて,モデル変数や潜在変数の変動が自己認知と社会的能力の多様性にどのように影響するのかを解析する.他者の意図推定や模倣における多様性が,予測符号化処理の変動に基づいてどのようにどこまで説明できるのかを明らかにする.また,項目1で収集される知覚運動データを用いて,ASD者と定型発達者の認知機能の多様性を,モデル変数や潜在変数の変動として抽出する.本結果を項目1の解析結果と比較することで,さまざまな認知機能・動態レベルでの多様性を包括的に理解する. 【項目3】前年度までに開発したVR装置を用いて,固有・外受容・内受容感覚を操作する自己認知の介入実験を行う.項目1・2の結果と統合することで,予測符号化処理に基づく自己認知の多様性の発生機序の理解を深化させる.また,本VR装置を用いて,非定型な自己認知能力をもつ発達障害者への支援効果を検証する.項目1の当事者研究と融合することで,ウェルビーイングや首尾一貫感覚が改善することを示す.
|
Assessment Rating |
Interim Assessment Comments (Rating)
A: In light of the aim of introducing the research area into the research categories, the expected progress has been made in research.
|