• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

感性イメージのマルチモダリティ関連度を定量化する新手法の開発

Research Project

Project/Area Number 16650043
Research Category

Grant-in-Aid for Exploratory Research

Allocation TypeSingle-year Grants
Research Field Sensitivity informatics/Soft computing
Research InstitutionTohoku University

Principal Investigator

行場 次朗  東北大学, 大学院・文学研究科, 教授 (50142899)

Co-Investigator(Kenkyū-buntansha) 川畑 秀明  鹿児島大学, 教育学部, 助教授 (70347079)
Project Period (FY) 2004 – 2005
Project Status Completed (Fiscal Year 2005)
Budget Amount *help
¥1,300,000 (Direct Cost: ¥1,300,000)
Fiscal Year 2005: ¥600,000 (Direct Cost: ¥600,000)
Fiscal Year 2004: ¥700,000 (Direct Cost: ¥700,000)
Keywords感性 / マルチモダリティ / 脳内活動 / セマンティック・ディファレンシャル法 / 美感 / エモーショナルデザイン / エモーショナル・デザイン
Research Abstract

感性工学的研究において、C.E.Osgoodが開発したSemantic Differential(SD)法が広く利用されている。しかし、SD法で抽出される評価性因子、活動性因子、力量性因子の内容は、やや多義的で抽象的なので、リアルな心理過程に関連させて考察を深めることが困難で、実際場面で応用しにくい問題があった。
SD法で頻繁に使われる各形容詞尺度がどの程度、それぞれの感覚モダリティに関連するか、7段階スケールを使って調べた。これをMD(modality differential)法と呼ぶことにする。MD法で得られたデータに主成分分析やクラスター分析を行った結果、冷覚、温覚、味覚、嗅覚、痛覚、触覚に大きな負荷量を示す近感覚性を示す次元と、身体運動感覚と平衡感覚に高い負荷量を示し、自己受容感覚に対応する次元、そして、視覚と聴覚に高い負荷量を持ち、クラスターを形成する遠感覚的性質を示す次元が見出された。また、評価性を代表する「快-不快」などの形容詞群は多くの感覚について一般に高い関連性得点を示し、マルチモダリティ性が強いことがわかった。一方、力量性因子に対応する「鋭い-鈍い」「かたい-やわらかい」などの触覚などに高い関連性を示し、活動性因子に「激しい-穏やかな」「活発な-不活発な」などの形容詞対は聴覚や運動感覚に高い関連性を示した。これらの結果は、因子の感覚関連度を求めた研究(鈴木・行場,2003)や、NIRSを用いてSD評定課題遂行時の脳内活動を調べた研究(Suzuki, Gyoba, and Sakuta, 2005)の結果と対応するものであった。
このようなアプローチを応用的方向に向ければ、製品などの目的に応じた感覚モダリティ・フィットネスをもつ印象生成や印象管理に指針を与えることが可能であり、感性工学や製品開発・管理分野へのインパクトは大きい。

Report

(2 results)
  • 2005 Annual Research Report
  • 2004 Annual Research Report
  • Research Products

    (8 results)

All 2006 2005 2004

All Journal Article (6 results) Book (2 results)

  • [Journal Article] Cross-modal mere exposure effects between visual and tactile modalities2006

    • Author(s)
      Suzuki, M., Gyoba, J.
    • Journal Title

      Perception, Supplement (In press)

    • Related Report
      2005 Annual Research Report
  • [Journal Article] NIRS analysis of brain activity during semantic differential rating of drawing stimuli containing different affective polarities.2005

    • Author(s)
      Suzuki, M., Gyoba, J., Sakuta, Y
    • Journal Title

      Neuroscience Letters 375

      Pages: 53-58

    • Related Report
      2005 Annual Research Report
  • [Journal Article] Analyses of sensory-relevance of adjective pairs frequently used in the semantic differential method.2005

    • Author(s)
      Gyoba, J., Suzuki, M., Kawabata, H., Yamaguchi, H., Komatsu, H.
    • Journal Title

      The 6th Annual Meeting of the International Multisensory Research Forum (Italy)

      Pages: 48-48

    • Related Report
      2005 Annual Research Report
  • [Journal Article] 感性印象測定に用いられる形容詞尺度の感覚モダリティ関連性の分析2005

    • Author(s)
      行場次朗, 鈴木美穂, 川畑秀明, 山口浩, 小松紘
    • Journal Title

      日本認知心理学会第3回大会発表論文集

      Pages: 121-121

    • NAID

      130004586920

    • Related Report
      2005 Annual Research Report
  • [Journal Article] NIRS analysis of brain activity during semantic differential rating of drawing stimuli containing different affective polarities.2005

    • Author(s)
      Suzuki, M., Gyoba, J., Sakuta, Y.
    • Journal Title

      Neuroscience Letters 375

      Pages: 53-58

    • Related Report
      2004 Annual Research Report
  • [Journal Article] Analyzing the aesthetic impressions of alexithymic Japanese students.2004

    • Author(s)
      Suzuki, M., Gyoba, J., Kano, M.
    • Journal Title

      Psychological Reports 94

      Pages: 669-682

    • Related Report
      2004 Annual Research Report
  • [Book] 「感性印象の測定」『人文社会科学への招待』(中村捷,編)2005

    • Author(s)
      行場 次朗
    • Total Pages
      213
    • Publisher
      東北大学出版会
    • Related Report
      2005 Annual Research Report
  • [Book] 「感性印象の測定」『人文社会科学への招待』2005

    • Author(s)
      行場 次朗
    • Publisher
      東北大学出版会(印刷中)
    • Related Report
      2004 Annual Research Report

URL: 

Published: 2004-04-01   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi