研究課題/領域番号 |
23K17462
|
研究種目 |
挑戦的研究(開拓)
|
配分区分 | 基金 |
審査区分 |
中区分61:人間情報学およびその関連分野
|
研究機関 | 大阪大学 |
研究代表者 |
北澤 茂 大阪大学, 大学院生命機能研究科, 教授 (00251231)
|
研究期間 (年度) |
2023-06-30 – 2026-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
26,000千円 (直接経費: 20,000千円、間接経費: 6,000千円)
2025年度: 2,730千円 (直接経費: 2,100千円、間接経費: 630千円)
2024年度: 2,730千円 (直接経費: 2,100千円、間接経費: 630千円)
2023年度: 20,540千円 (直接経費: 15,800千円、間接経費: 4,740千円)
|
キーワード | Vision Transformer / Precuneus / attention / こころ / Transformer / Class token / Attention / デカルト |
研究開始時の研究の概要 |
デカルトが「こころ」の座を脳の中心に位置する「gland H」に置いた。本研究は、最新のAI、「Vision Transformer」のClass tokenが、この「gland H」に相当するという着想に基づいている。まず、視線時系列解析法を用いてVision Transformerの注意が人間に近いことを示し、Vision Transformerを脳のモデルに適した形に改良する。最後に、脳のネットワークの中心である楔前部の抑制効果と、「AIのgland H」の抑制効果を比較し、脳のネットワークの中心に「こころ」が宿る、というデカルトの予想を検証する。
|
研究実績の概要 |
デカルトが「こころ」の座を脳の中心に位置する「gland H」に置いた。本研究は、最新のAI、「Vision Transformer」のClass tokenが、この「gland H」に相当するという着想に基づいている。 まず、視線時系列解析法を用いてVision Transformerの注意が人間に近いことを示すことが第一の目標となる。本年度はVision Transformerを従来の画像のラベルを使った教師付学習法と、ラベルを使うことなく情報量を最大化する自律学習法(ラベルなし蒸留法)でそれぞれ6回学習させ、教師付学習Vision Transformer 6個体と自律学習Vision Transformer6個体を準備した。これらVision Transformer 12個体に、ヒトの視線計測に用いたのと同じ12個のビデオクリップを見せて、注意のピークの時系列を取得し、定型発達のヒト50名の視線時系列との比較を、すでに開発した定量解析法 (Nakano et al., 2010) を用いて行った。その結果、自律学習Vision Transformerは定型発達のヒトと似て、画像中のヒトの顔を適切に「見る」一方、教師付学習Vision Transformerは異なる時系列パターンを示すことが定量的に明らかになった。本成果をまとめた論文を準備中である。 また、並行して、ヒトの楔前部を磁石で抑制して、ヒトの視線時系列にどのような変化が生じるかを調べる実験の準備を行った。 さらに、Vision Transformer を2個使った自己蒸留法を、Vision Transformere1個と小脳を模した予測器だけで実現する方法の実相を開始した。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
2: おおむね順調に進展している
理由
ViTを教師付学習法と自律学習法のそれぞれで、6回ずつ訓練して、6「個体」ずつを得るという第一段階をクリアして、さらにヒトの視線時系列との比較を行い、教師付学習ではヒトと同じ注意が生じない一方、自律学習では相同な注意が得られることを示すことに成功したから。
|
今後の研究の推進方策 |
経頭蓋静磁場刺激法を用いて、楔前部を抑制した際のヒトの視線時系列データを取得し、どのような変化が生じるかを確認する。その上で、ViTの7層以下のclass tokenを抑制した際に8層のclass tokenの注意にどのような変化が生じるのか、を明らかにする。またラベルなし自己蒸留法と同様の結果が得られる学習アルゴリズムの開発に着手する。
|