• 研究課題をさがす
  • 研究者をさがす
  • KAKENの使い方
  1. 課題ページに戻る

2022 年度 実績報告書

脳波と眼球運動を用いた音声生成と知覚の神経メカニズムに関する研究

研究課題

研究課題/領域番号 20K11883
研究機関北陸先端科学技術大学院大学

研究代表者

党 建武  北陸先端科学技術大学院大学, 先端科学技術研究科, 名誉教授 (80334796)

研究分担者 赤木 正人  北陸先端科学技術大学院大学, 先端科学技術研究科, 名誉教授 (20242571)
研究期間 (年度) 2020-04-01 – 2023-03-31
キーワード音声生成 / 音声理解 / 脳ネットワーク / 脳活動の動的特性 / 音声生成の神経学的モデル
研究実績の概要

本研究では、文を朗読するには視覚、調音及び聴覚プロセスの高度に柔軟な調整が必要であることを着眼して、脳ネットワークでどのようにエンコードまたはデコードを行うかを明らかにすることを目標とした。 そのため、リアルタイムのEEG、眼球運動、および音声記録を、脳画像の結果からの空間的に正確なネットワーク トポロジと組み合わせることにより、マルチモーダル ソリューションを探った。階層的な皮質レベルでの根底にある神経的関連性を明らかにするために、独立成分(IC)に事象関連のスペクトル摂動分析、ICクラスターに効果的な接続分析、機能特定サブネットワークの類似性分析を順次適用した。 その結果、前頭前野、前頭葉、および下前頭葉を含むいくつかの高次認知および言語野におけるトップダウンのソースを特定した。 これらの高度な認知および言語ネットワークは、早期の活性化と下位の視覚運動システムとの頻繁な相互作用で検出され、文構造の知識によって調整された並行および反復的な相互作用プロセスを示唆した。 それに従って、我々は音声生成と音声理解の神経モデルを構築した。
人間の感情認識のため高密度EEG 信号に基づいた時空間特徴融合畳み込みグラフ注意ネットワーク (STFCGAT) モデルを構築した。 まず、単一チャネルの差分エントロピー (DE) 機能とクロスチャネル機能接続 (FC) 機能を組み合わせて、EEG の時間的変動と空間トポロジー情報の両方を着眼して、DE と FC の機能を融合し、感情表現力の高いグラフ構造情報をさらに抽出した。 さらに、グラフニューラルネットワークに多頭注意メカニズムを導入して、モデルの一般化能力を向上させた。 その結果、提案したSTFCGAT アーキテクチャの感情認識への有効性を実証した。
また、EEG信号を用いて異なる韻律をもつ同じ文章の意図を識別する方法を研究した

  • 研究成果

    (12件)

すべて 2023 2022 その他

すべて 国際共同研究 (2件) 雑誌論文 (5件) (うち国際共著 5件、 査読あり 5件、 オープンアクセス 5件) 学会発表 (5件) (うち国際学会 4件)

  • [国際共同研究] 天津大学(中国)

    • 国名
      中国
    • 外国機関名
      天津大学
  • [国際共同研究] Nanyang Tech(シンガポール)

    • 国名
      シンガポール
    • 外国機関名
      Nanyang Tech
  • [雑誌論文] Emotion recognition using spatial-temporal EEG features through convolutional graph attention network.2023

    • 著者名/発表者名
      Li, Z., Zhang, G., Wang, L., Wei, J., & Dang, J.
    • 雑誌名

      Journal of Neural Engineering

      巻: 20 ページ: 016046

    • 査読あり / オープンアクセス / 国際共著
  • [雑誌論文] Detection of brain network communities during natural speech comprehension from functionally aligned EEG sources2022

    • 著者名/発表者名
      Zhou, D., Zhang, G., Dang, J., Unoki, M., & Liu, X.
    • 雑誌名

      Frontiers in Computational Neuroscience

      巻: 1 ページ: 1-10

    • 査読あり / オープンアクセス / 国際共著
  • [雑誌論文] Intrinsic Representation Mining for Zero-Shot Slot Filling2022

    • 著者名/発表者名
      Li, S., Okada, S., & Dang, J.
    • 雑誌名

      IEICE TRANSACTIONS on Information and Systems

      巻: 105 ページ: 1947-1956.

    • 査読あり / オープンアクセス / 国際共著
  • [雑誌論文] Improving low-resource Tibetan end-to-end ASR by multilingual and multilevel unit modeling2022

    • 著者名/発表者名
      S Qin, L Wang, S Li, J Dang, L Pan
    • 雑誌名

      EURASIP Journal on Audio, Speech, and Music Processing

      巻: 1 ページ: 1-10

    • 査読あり / オープンアクセス / 国際共著
  • [雑誌論文] One-shot emotional voice conversion based on feature separation2022

    • 著者名/発表者名
      W Lu, X Zhao, N Guo, Y Li, J Wei, J Tao, J Dang
    • 雑誌名

      Speech Communication

      巻: 143 ページ: 1-9

    • 査読あり / オープンアクセス / 国際共著
  • [学会発表] Investigating the neural responses to continuous speech based on reconstructed source signal from EEG.2022

    • 著者名/発表者名
      Zhou, D., Zhang, G., Dang, J.
    • 学会等名
      Acoustical Science and Technology (ROMBUNNO.1-8-5).
  • [学会発表] Reconstruction of speech spectrogram based on non-invasive EEG signal.2022

    • 著者名/発表者名
      Zhou, D., Unoki, M., Zhang, G., & Dang, J.
    • 学会等名
      13th International Symposium on Chinese Spoken Language Processing (ISCSLP)
    • 国際学会
  • [学会発表] Dialogue scenario classification based on social factors2022

    • 著者名/発表者名
      Liu, Y., Zhou, D., Unoki, M., Dang, J., & Li, A.
    • 学会等名
      13th International Symposium on Chinese Spoken Language Processing (ISCSLP)
    • 国際学会
  • [学会発表] Dual-stream Speech Dereverberation Network Using Long-term and Short-term Cues2022

    • 著者名/発表者名
      N Li, M Ge, L Wang, J Dang
    • 学会等名
      2022 International Joint Conference on Neural Networks (IJCNN)
    • 国際学会
  • [学会発表] Improve emotional speech synthesis quality by learning explicit and implicit representations with semi-supervised training2022

    • 著者名/発表者名
      J He, C Gong, L Wang, D Jin, X Wang, J Xu, J Dang
    • 学会等名
      Proc. Interspeech 2022
    • 国際学会

URL: 

公開日: 2023-12-25  

サービス概要 検索マニュアル よくある質問 お知らせ 利用規程 科研費による研究の帰属

Powered by NII kakenhi