• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Reconstruction of human sciences by decoding emotional information from neural activities

Administrative Group

Project AreaRestructuring human sciences based on decoding of emotional information
Project/Area Number 21H05059
Research Category

Grant-in-Aid for Transformative Research Areas (B)

Allocation TypeSingle-year Grants
Review Section Transformative Research Areas, Section (I)
Research InstitutionAraya Inc. (Research & Development Department)

Principal Investigator

近添 淳一  株式会社アラヤ(研究開発部), 脳事業研究開発室, チームリーダー (40456108)

Co-Investigator(Kenkyū-buntansha) 石津 智大  関西大学, 文学部, 准教授 (50726669)
持橋 大地  統計数理研究所, 数理・推論研究系, 准教授 (80418508)
Project Period (FY) 2021-08-23 – 2024-03-31
Project Status Granted (Fiscal Year 2022)
Budget Amount *help
¥10,920,000 (Direct Cost: ¥8,400,000、Indirect Cost: ¥2,520,000)
Fiscal Year 2022: ¥3,640,000 (Direct Cost: ¥2,800,000、Indirect Cost: ¥840,000)
Fiscal Year 2021: ¥3,640,000 (Direct Cost: ¥2,800,000、Indirect Cost: ¥840,000)
Keywords脳機能画像 / 美学 / 自然言語処理 / 経済学 / 神経科学 / 情動
Outline of Research at the Start

心理学や経済学といった人文系・社会系学問は、人間の行動やその記録から内的な状態・過程のモデルを構築する。機能的MRIを組み合わせた心理学・言語学・経済学・美学研究を通じて、これまで不可視のものであった情動情報を可視化し、認知過程・言語表象・経済活動・芸術活動への影響を明らかにする。本領域の研究活動を端緒として、心理学・言語学・経済学・美学の枠を超えた融合領域である「情動情報学」の創成を目指す。

Outline of Annual Research Achievements

当領域は2021年10月1日に発足した。まず、領域の活動について周知する目的で、領域HPを2021年10月1日に開設した。また、2021年10月22日にはオンラインでキックオフシンポジウムおよび意見交換会を開催し、約60名の聴講者に対して、近添・持橋・渡辺・石津が領域の目的・研究内容などを説明した。さらに、2021年11月5・6日に生理研研究会「情動の脳科学的理解に基づく人文系学問の再構築」を生理研・オンラインのハイブリッド形式で開催した。約80名の聴講者に対して、近添・南本・持橋・渡辺・石津・地村・内海・大関・小林・大黒・萱場がこれまでの研究成果と今後当領域で計画している研究の概要について口頭発表した。また、2021年11月6日午後、上記メンバーで第1回領域会議を行い、今後の領域運営に関して意見交換を行った。当領域と同時期に発足した学術変革領域B「デジタル身体経済学の創成」や「脳神経マルチセルラバイオコンピューティング」とのシンポジウムの共催などが話題に上がり、今後の検討課題とすることとなった。また、2022年3月14日には、第1回ニュースレターを発行し、進捗に関する報告を行った。さらに、2022年3月20日には、高度な機能的MRI解析を国内で普及させることを目的として、機能的MRIトレーニングコースを開催し、約70名の受講者に対して、MVPA(multivoxel pattern analysis)の概要を解説するとともに、RSA(representational similarity analysis)のためのコードを共有し、コード内でどういう処理を行っているかをstep by stepで説明した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

初年度は、ニュースレターの発行に加えて、キックオフシンポジウム1回、研究会1回、トレーニングコース1回開催した。これらの内容は、youtubeにアップロードしており(キックオフシンポジウム:https://www.youtube.com/watch?v=QFAS3n7e1xA&t=1s ; 生理研研究会:https://www.youtube.com/watch?v=XkFQZp5XKIw ; https://www.youtube.com/watch?v=iXmDqpfsfiw&t=1s ; https://www.youtube.com/watch?v=meXfTDGsd4I&t=1s ; https://www.youtube.com/watch?v=ZaM9ZBwmIvs ; 機能的MRIトレーニングコース: https://www.youtube.com/watch?v=VSru84Nzakc&t=12s ; https://www.youtube.com/watch?v=LHiXDvdilus&t=1s ; https://www.youtube.com/watch?v=q4if2L3SRDQ&t=1s ; https://www.youtube.com/watch?v=EmkuWw1TewI ; https://www.youtube.com/watch?v=NHCPiTEyL5o)、youtube内での検索、または領域HP内のlinkからアクセス可能にしている。
また、領域内での共同研究も活性化している。近添・持橋の「脳機能画像法を用いた短歌によって抒情が生じるメカニズムの解明」、近添・渡辺・萱場の「情動的影響の計量経済学的構造モデル推定」、近添・石津の「美学的体験や創造的体験とその心理的効果に関する認知神経科学的研究」など順調に進んでいる。

Strategy for Future Research Activity

2022年度は、引き続き、ワークショップや領域会議、ニュースレターなどを通した情報発信に努める。学術変革領域B「デジタル身体経済学の創成」との合同ワークショップを2022年6月に開催し、それぞれの領域の研究者が複数のグループに分かれて様々なトピックにわたって意見交換を行うことを計画している。また、2022年7月にはNeuro2022との共催で、シンポジウムを開催し、アメリカからは、Adam Anderson教授、Alan Cowen博士を招聘、当領域からは近添・石津・大黒が参加し、口頭発表する。また、2022年7月には、対面で領域会議を開き、メンバー間の進捗を共有するとともに、今後、より大規模な研究グループに発展させるための具体的な計画を相談する。
領域内の研究者のサポートを目的として、大規模な計算を実行可能なサーバーとネットワークストレージを慶應義塾大学理工学部矢作キャンパス・地村研究室内に設置し、これらの使用を年度内前半に領域内の研究グループに開放することを予定している。この共用設備を利用することで、深層学習を用いた計算など、計算機資源が律速となるタイプの研究を加速できることが期待される。
また、国内の機能的MRI研究者の解析技術レベルの底上げを目的として、機能的MRIトレーニングコースを本年度も開催する。特に、機能的結合解析に関する講義の要望を多く受けたため、Human Connectome Projectのデータを用いた、機能的結合解析に関する概説と実習を行うことを計画している。一般的な機能的結合解析に加えて、現在開発を進めている新規の解析法についても紹介することを予定している。

Report

(1 results)
  • 2021 Annual Research Report

Research Products

(1 results)

All Other

All Remarks (1 results)

  • [Remarks] 情動情報学HP

    • URL

      https://jodo-joho.com/

    • Related Report
      2021 Annual Research Report

URL: 

Published: 2021-10-22   Modified: 2022-12-28  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi