• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2023 Fiscal Year Annual Research Report

Identification of electrical activity pattern in a cultured neural network by the combination of 3D-clustering and deep neural networks.

Research Project

Project/Area Number 19H04185
Research InstitutionKwansei Gakuin University

Principal Investigator

工藤 卓  関西学院大学, 工学部, 教授 (10344110)

Project Period (FY) 2019-04-01 – 2024-03-31
Keywords深層学習 / 3Dクラスタリング / 培養神経回路網 / 神経誘発応答パターン / 自発性神経活動パターン / VGG16 / 転移学習 / 瞬時空間パターン
Outline of Annual Research Achievements

今年度は最終年度であるため,3Dクラスタリングと深層転移学習を組み合わせた活動パターン識別手法を最適化し,理論的な確認を行った.本研究では, 時空間3Dクラスタリングにより得られた神経電気活動の多点時空間パターンを画像化した.転移学習に用いる学習済みモデルとしてVGG16を用いた.活動パターンを発現時刻順に結合して入力として224×224 画像を生成した.複数の 8×8 画像を結合して空間的連続性が局所情報として配置される空間情報優先神経活動パターンイメージ(SIP-NAP)と時間的連続性が局所情報として配置される時間情報優先神経活動パターンイメージ(TIP-NAP)の 2 種類の画像データに対し,バリデーションデータの識別精度はTIPで99.97 ± 0.02%,空SIPで92.18 ± 2.23%と高い精度を示した.特に,TIPを識別対象とした場合,転移学習モデルのプーリング層の出力には,識別に資する空間的,時間的特徴量が抽出されたことが示唆された.
さらに,シナプス伝達が生じない短い時間幅において再現よく誘発される瞬時空間パターンを,同時刻に活性化された神経活性化経路(ストリーム)のfootprintとして抽出し,これを結合した画像に対して転移学習にて識別を行った.この結果,概ね9割超の高い精度で識別可能で,ストリームが情報をコードしている可能性が示唆された.同じ刺激でも複数の異なった経路が活性化されることがあり,誘発活動は入力に対して厳密に固有ではなかった.また,誘発応答と自発活動におけるストリームは共通のものが存在することが示された.これらの結果は<自発性活動と誘発応答活動はそれぞれ独立した活動ではなく,自発性活動は神経活動の内部状態を形成し,誘発応答活動パターンの ソースになっている>という「神経回路網入出力のルースカップリング」仮説を支持するものである.

Research Progress Status

令和5年度が最終年度であるため、記入しない。

Strategy for Future Research Activity

令和5年度が最終年度であるため、記入しない。

  • Research Products

    (10 results)

All 2023 Other

All Journal Article (3 results) (of which Peer Reviewed: 3 results) Presentation (6 results) (of which Int'l Joint Research: 2 results) Remarks (1 results)

  • [Journal Article] A semi-living broken Dialogue Agent Depending on the Internal State of a Living Neuronal Network2023

    • Author(s)
      Suguru N. Kudoh
    • Journal Title

      Proceedings of the 11th International Conference on Human-Agent Interaction

      Volume: 11 Pages: 419-421

    • DOI

      10.1145/3623809.3623947

    • Peer Reviewed
  • [Journal Article] Identification of the spatiotemporal activity patterns of cultured neuronal networks using deep convolutional neural networks (CNNs)2023

    • Author(s)
      Kaito Ogomori, Suguru N. Kudoh
    • Journal Title

      Proceedings of the 2023 15th Biomedical Engineering International Conference (BMEiCON)

      Volume: 15 Pages: 1-4

    • DOI

      10.1109/BMEiCON60347.2023.10321992

    • Peer Reviewed
  • [Journal Article] 深層学習を用いた培養神経回路網の瞬時空間パターン識別2023

    • Author(s)
      淺田 紘基, 工藤 卓
    • Journal Title

      日本知能情報ファジィ学会 ファジィ システム シンポジウム 講演論文集

      Volume: 39 Pages: 400-404

    • DOI

      10.14864/fss.39.0_400

    • Peer Reviewed
  • [Presentation] Analysis of the occurrence rate of neural activity patterns in a cultured neuronal networkusing instantaneous-spatial-pattern representation.2023

    • Author(s)
      Hiroki Asada and Suguru N. Kudoh
    • Organizer
      Neuroscience 2023 (2023 Annual Meeting of Society Neuroscience U.S.A.)
    • Int'l Joint Research
  • [Presentation] Attempt to quantify the segmentation of continuous input by a cultured neuronal network2023

    • Author(s)
      Kazuki Nitta and Suguru N. Kudoh
    • Organizer
      Neuroscience 2023 (2023 Annual Meeting of Society Neuroscience U.S.A.)
    • Int'l Joint Research
  • [Presentation] 培養神経回路網による連続刺激に対する分節化の検証2023

    • Author(s)
      新田 一輝,工藤 卓
    • Organizer
      2023年度電気学会電子・情報・システム部門大会
  • [Presentation] 培養神経回路網における入出力関係の瞬時空間パターン表現による解析2023

    • Author(s)
      淺田 紘基, 工藤 卓
    • Organizer
      2023年度電気学会電子・情報・システム部門大会
  • [Presentation] 培養神経回路網における入力応答の信号伝搬経路の共起抽出2023

    • Author(s)
      淺田 紘基, 工藤 卓
    • Organizer
      第46回日本神経科学大会
  • [Presentation] 培養神経細胞ネットワークにおける高頻度連続入力に対する誘発応答の同定2023

    • Author(s)
      新田 一輝,工藤 卓
    • Organizer
      第46回日本神経科学大会
  • [Remarks] 関西学院大学 研究活動情報

    • URL

      https://research-activity.kwansei.ac.jp/topic/index.php?c=topics_view&pk=1706796042

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi