• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Research on neural mechanisms of sound-induced visual motion perception

Research Project

Project/Area Number 20K12583
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 90030:Cognitive science-related
Research InstitutionIwate Prefectural University

Principal Investigator

Sanada Takahisa  岩手県立大学, ソフトウェア情報学部, 准教授 (40711007)

Project Period (FY) 2020-04-01 – 2023-03-31
Project Status Completed (Fiscal Year 2022)
Budget Amount *help
¥4,290,000 (Direct Cost: ¥3,300,000、Indirect Cost: ¥990,000)
Fiscal Year 2022: ¥650,000 (Direct Cost: ¥500,000、Indirect Cost: ¥150,000)
Fiscal Year 2021: ¥650,000 (Direct Cost: ¥500,000、Indirect Cost: ¥150,000)
Fiscal Year 2020: ¥2,990,000 (Direct Cost: ¥2,300,000、Indirect Cost: ¥690,000)
Keywords多感覚統合 / 最尤推定モデル / 事象関連電位 / 視覚運動知覚 / 視聴覚統合 / 視覚運動 / 最尤推定 / 視聴覚 / 感覚統合
Outline of Research at the Start

本研究では、脳の中で異なる感覚情報がどのように統合されるかを、視聴覚刺激に対する脳活動を調べることにより明らかにする。視覚的には動いていないを見ていても、聴覚運動刺激を聞くと動いて見える(聴覚誘導性視覚運動知覚)ことが知られている。この現象が起こっている時の脳活動を計測し、被験者の知覚判断との相関を調べることで、多感覚統合の神経基盤とそのメカニズムを理解する。

Outline of Final Research Achievements

We studied Sound-induced Visual Motion Perception (SIVM) to understand its neural mechanisms. We compared the ability to discern motion direction in visual-only and audio-visual conditions, analyzing psychophysical performance and SSVEP (Steady-State Visual Evoked Potential) amplitude. Both psychophysical performance and SSVEP amplitude showed a parallel shift with auditory stimulation. To gain further insights, we used a mathematical model to analyze multisensory integration and estimate psychophysical data. The model partially captured observed trends, providing valuable understanding of SIVM mechanisms. Our research illuminates the interaction and contribution of different sensory modalities to motion perception, advancing knowledge of multisensory integration and serving as a foundation for future studies in this field.

Academic Significance and Societal Importance of the Research Achievements

私たちの認知は,異なる感覚情報が統合された結果だと考えられる.異種感覚情報が一致することで,より確からしい認知が生じる反面,感覚情報に乖離があると,感覚モダリティ間の相互作用によって錯覚や特殊な知覚が生じることもある.本研究の結果から,大脳皮質視覚システムにおいて,聴覚による脳活動の変調が生じていることが示唆された.また,そのメカニズムが感覚情報の重みづけ加算によってある程度説明できることが明らかになった.これらの知見は多感覚認知の様々な現象の理解の一助になると期待される.

Report

(4 results)
  • 2022 Annual Research Report   Final Research Report ( PDF )
  • 2021 Research-status Report
  • 2020 Research-status Report
  • Research Products

    (13 results)

All 2023 2022 2021 2020

All Journal Article (1 results) Presentation (11 results) (of which Int'l Joint Research: 2 results) Book (1 results)

  • [Journal Article] 深層畳み込みニューラルネットワーク (DCNN)内部ユニットの 2次刺激に対する選択性2022

    • Author(s)
      Jamal Shah, 白石祥之, 内藤智之, 眞田尚久
    • Journal Title

      電子情報通信学会技術研究報告

      Volume: 122 Pages: 16-19

    • Related Report
      2022 Annual Research Report
  • [Presentation] An Efficient Ensemble of Deep Neural Networks for Detection and Classification of Diabetic Foot Ulcers Images2023

    • Author(s)
      Nakka Suma Sailaja, Basabi Chakraborty, Takahisa Sanada
    • Organizer
      DBKDA 2023, The Fifteenth International Conference on Advances in Databases, Knowledge, and Data Applications
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research
  • [Presentation] 3次元運動知覚における視聴覚相互作用の最尤推定モデルによる検証2023

    • Author(s)
      高橋礼, 眞田尚久
    • Organizer
      日本視覚学会2023年冬季大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] 視聴覚情報処理における感覚間の知覚時間差の測定2023

    • Author(s)
      角田遼河, 眞田尚久
    • Organizer
      日本視覚学会2023年冬季大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] Identification and Classification of Diabetic Foot Ulcers by Deep Neural Networks: A Comparative Study2022

    • Author(s)
      Nakka Suma Sailaja, Basabi Chakraborty, Takahisa Sanada
    • Organizer
      5th IEEE International Conference on Knowledge Innovation and Invention
    • Related Report
      2022 Annual Research Report
    • Int'l Joint Research
  • [Presentation] Tuning properties to Second-order grating in Deep Convolutional Neural Network (DCNN)2022

    • Author(s)
      Jamal Shah, Yoshiyuki R. Shiraishi, Tomoyuki Naito, Takahisa M. Sanada
    • Organizer
      電子情報通信学会ニューロコンピューティング研究会
    • Related Report
      2022 Annual Research Report
  • [Presentation] 深層畳み込みニューラルネットワークモデル内部ユニットの色組み合わせに対する応答特性2022

    • Author(s)
      川崎修斗,法霊崎真琉,眞田尚久
    • Organizer
      日本視覚学会2022年夏季大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] 深層畳み込みニューラルネットワークモデル内部ユニットの周辺抑制効果2022

    • Author(s)
      法霊﨑真琉, 白石祥之 ,内藤智之,眞田尚久
    • Organizer
      日本視覚学会2022年夏季大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] Multi-Class Classification of Diabetic Foot Ulcer Images by Pre-trained VGG Models2022

    • Author(s)
      Nakka Suma Sailaja, Basabi Chakraborty, Takahisa Sanada
    • Organizer
      2022年度東北支部連合大会
    • Related Report
      2022 Annual Research Report
  • [Presentation] Hierarchical representation of receptive field property in deep convolutional neural network (DCNN)2021

    • Author(s)
      Yoshiyuki R. Shiraishi, Takahisa M. Sanada and Tomoyouki Naito
    • Organizer
      第31回 日本神経回路学会 全国大会 (JNNS 2021)
    • Related Report
      2021 Research-status Report
  • [Presentation] 複雑運動情報処理の神経基盤2020

    • Author(s)
      眞田尚久
    • Organizer
      視覚科学フォーラム
    • Related Report
      2020 Research-status Report
  • [Presentation] Receptive field properties of complex motion in visual area FST,2020

    • Author(s)
      Takahisa M. Sanada
    • Organizer
      日本視覚学会2020年夏季大会
    • Related Report
      2020 Research-status Report
  • [Book] 図説 視覚の事典2022

    • Author(s)
      日本視覚学会
    • Total Pages
      360
    • Publisher
      朝倉書店
    • ISBN
      9784254102949
    • Related Report
      2022 Annual Research Report

URL: 

Published: 2020-04-28   Modified: 2024-01-30  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi