• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2023 Fiscal Year Research-status Report

統合可能性の高い多感覚情報に対する意識的・無意識的選好の検討

Research Project

Project/Area Number 23K03019
Research InstitutionSophia University

Principal Investigator

日高 聡太  上智大学, 総合人間科学部, 教授 (40581161)

Co-Investigator(Kenkyū-buntansha) 横澤 一彦  筑波学院大学, 経営情報学部, 教授 (20311649)
宇野 究人  東京大学, 大学院情報理工学系研究科, 特任助教 (50973278)
Project Period (FY) 2023-04-01 – 2026-03-31
Keywords多感覚統合 / 好ましさ / 時間的一致性
Outline of Annual Research Achievements

ヒトは外界の状態を推定する際,複数の感覚情報を利用することで推定した内容の頑健性を高めている(多感覚統合)。多感覚統合が行われる際,絶え間なく入力される複数の感覚情報に対して,時間的な一致性などを利用して対応関係を見いだすことが示されてきた。一方で,多感覚統合に関する従来の知見は,情報が入力された後で対応関係を把握するという受動的なプロセスを想定した検討がなされてきた。人の知覚システムが適応的に振る舞うのであれば,時間的に一致した複数感覚入力をより選好するなど,生体にとって情報価の高い,多感覚統合が成立しやすい入力に対して能動的に情報取得を行うことが考えられる。本研究は,「統合可能性の高い多感覚入力がヒトにとって正の情報価を持ちより好ましく感じられる」という仮説に基づき,視・聴・触覚において時間的に一致した入力が選好されることを,主観評定と行動指標を組み合わせ意識的・無意識的な側面から多面的に実証することである。
今年度は,時間的に同期した多感覚入力はより好ましく評価されることを検証するため,まず当初の予定通り,男女複数名のモデルが挨拶文を発生する場面を収録した視聴覚映像を作成し,発話時の開口映像と音声のオンセットを様々な時間間隔で提示し,視覚的アナログスケールを用いて主観的な好ましさを計測する実験を行った。モデルの視覚的,聴覚的好ましさや挨拶文の好ましさを主観的評定させたデータを統制変数として含めながら,映像と音声の時間間隔毎に主観的な好ましさの評定値を比較した。視聴覚映像の時間間隔に対して,同時と感じる応答関数は得られたものの,予測に反して,視聴覚映像の時間間隔に対する主観的な好ましさの応答関数が得られなかった。
今年度の結果を踏まえて,次年度は好ましさがより直接的に知覚されると考えられる触覚を用いた研究を実施する方向で検討を進める予定である。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

今年度は,時間的に同期した多感覚入力はより好ましく評価されることを検証する実験を予定通り実施することが出来た。まず,男女複数名のモデルが挨拶文を発生する場面を収録した視聴覚映像を作成した。その上で,発話時の開口映像と音声のオンセットを様々な時間間隔で提示し,視覚的アナログスケールを用いて主観的な好ましさを計測する実験を実施した。

Strategy for Future Research Activity

今年度の結果から,視聴覚映像を用いて挨拶文の好ましさを判断するという課題は,参加者が何に対して好ましさを判断するべきなのか曖昧であるため,本研究の目的にそぐわないと考えられた。この点を改善すべく,次年度は好ましさがより直接的かつ単純に知覚されると考えられる触覚を用いた研究を実施する方向で検討を進める予定である。

Causes of Carryover

当初は,男女複数名のモデルが音声を発生する場面を収録した視聴覚映像について,適宜業者に協力を依頼する予定であった。しかし,共同研究者の尽力により,自前で映像の作成を行ったため,経費が不要となった。次年度以降,触覚装置の導入等,研究遂行上必要な経費として執行する予定である。

URL: 

Published: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi