• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2010 Fiscal Year Annual Research Report

相互適応可能な実世界インタラクションのための計算モデル・システムの構築

Planned Research

Project AreaCyber Infrastructure for the Information-explosion Era
Project/Area Number 18049046
Research InstitutionKyoto University

Principal Investigator

松山 隆司  京都大学, 情報学研究科, 教授 (10109035)

Keywords実世界インタラクション / 相互適応 / ハイブリッドコンピューティング / マルチモーダル / プロアクティブインタラクション / 動的コンテンツ / 注視/興味推定 / 合意形成
Research Abstract

以下の学術研究成果に加え、5年間に渡る研究成果を総合化した「情報コンシェルジェシステム」を開発した。
(1)映像の顕著性変動と視線運動の時空間相関分析に基づいた集中度推定:TV映像視聴時の視線運動から、映像に対するユーザの集中度を推定する手法を提案した。視線運動は映像の視覚的特性に応じて振る舞いを変えるため、提案手法では、まずTV映像から視線が向けられやすい顕著領域を抽出し、それらが持つ動きのダイナミクス(顕著フロー)と視線運動の時空間的な関係性を分析し、顕著フローの特性に応じて視線運動からの集中度推定法を変えることによって、その精度が向上できることを示した。
(2)Gaze Mirroring効果の定量的分析:情報システムが提供する複数の情報の中からユーザが好みにあった情報を選択する状況において、ディスプレイ上の擬人エージェントがユーザの注視行動を同期同調して模倣を行うGaze Mirroringを提案し、被験者実験を通じて、ユーザが興味を持つ対象への注視時間が長くなるという効果を確認した。
(3)コンテンツ・他者への関心度推定に基づく二者間合意形成支援システム:本研究では、2人のユーザが情報端末を共有して実空間内で合意形成を行う際のコミュニケーション・パターンを分析し、合意形成支援のためのシステム構築を行った。システムは、各ユーザの視線から関心の対象を推定し、両者の関心状態にずれが生じた場合に画面の提示内容やインタフェースを変化させることによって、そのずれに気づきを与える。被験者実験によって、提案システムの有効性を検証した。
【情報コンシェルジェ】上記のGaze Mirroring機能を備え、リアルタイムにユーザの視線を検出し、ディスプレイ上の複数コンテンツに対するユーザの興味・関心を推定し、音声対話を通じたコミュニケーションによって、WEBから収集された情報の分析、分かりやすい説明を行うシステムを開発し、実環境でのデモを通じてその有効性を示した。

  • Research Products

    (9 results)

All 2011 2010

All Journal Article (3 results) (of which Peer Reviewed: 3 results) Presentation (4 results) Patent(Industrial Property Rights) (2 results) (of which Overseas: 1 results)

  • [Journal Article] Gaze Mirroring-based Intelligent Information System for Making User's Latent Interest Explicit2010

    • Author(s)
      H.S.Park, T.Hirayama, T.Matsuyama
    • Journal Title

      Journal of Korea Intelligent Information Systems Society

      Volume: 16 Pages: 37-54

    • Peer Reviewed
  • [Journal Article] Gaze Probing:イベント提示に基づく注視オブジェクト推定2010

    • Author(s)
      米谷竜, 川嶋宏彰, 平山高嗣, 松山隆司
    • Journal Title

      ヒューマンインタフェース学会論文誌

      Volume: 12 Pages: 125-135

    • Peer Reviewed
  • [Journal Article] Estimates of User Interest Using Timing Structures between Proactive Content-Display Updates and Eye Movements2010

    • Author(s)
      T.Hirayama, J.B.Dodane, H.Kawashima, T.Matsugama
    • Journal Title

      IEICE Transactions on Information and Systems

      Volume: E93-D Pages: 1470-1478

    • Peer Reviewed
  • [Presentation] Gaze Probing : Event-Based Estimation of Objects Being Focused On2010

    • Author(s)
      R.Yonetani, H.Kawashima, T.Hirayama, T.Matsuyama
    • Organizer
      The 20th International Conference on Pattern Recognition
    • Place of Presentation
      Istanbul
    • Year and Date
      20100823-20100826
  • [Presentation] Interval-based Modeling of Human Communication Dynamics via Hybrid Dynamical Systems2010

    • Author(s)
      H.Kawashima, T.Matsuyama
    • Organizer
      Wbrkshop on Human Communication Dynamics (NIPS WS)
    • Place of Presentation
      Whistler, Canada
    • Year and Date
      2010-12-10
  • [Presentation] Speech Estimation in Non-Stationary Noise Environments Using Timing Structures Between Mouth Movements and Sound Signals2010

    • Author(s)
      H.Kawashima, Y.Horii, T.Matsuyama
    • Organizer
      Interspeech 2010
    • Place of Presentation
      幕張メッセ
    • Year and Date
      2010-09-27
  • [Presentation] 口唇運動-音声間のタイミング構造を利用した非定常雑音環境での発話音声推定2010

    • Author(s)
      川嶋宏彰, 堀井悠, 松山隆司
    • Organizer
      第13回画像の認識・理解シンポジウム(MIRU2010)
    • Place of Presentation
      釧路
    • Year and Date
      2010-07-29
  • [Patent(Industrial Property Rights)] 関心度推定装置および方法2011

    • Inventor(s)
      松山隆司
    • Industrial Property Rights Holder
      パナソニック
    • Industrial Property Number
      特願2011-023271
    • Filing Date
      2011-02-04
  • [Patent(Industrial Property Rights)] 注視対象判定装置及び注視対象判定方法2010

    • Inventor(s)
      松山隆司
    • Industrial Property Rights Holder
      パナソニック
    • Industrial Property Number
      PCT/JP2010/003700
    • Filing Date
      2010-06-03
    • Overseas

URL: 

Published: 2012-07-19  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi