• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Annual Research Report

自律ロボットの認知状態提示によるインタラクション支援

Research Project

Project/Area Number 19K20368
Research InstitutionGunma University

Principal Investigator

福田 悠人  群馬大学, 大学院理工学府, 特任准教授 (70782291)

Project Period (FY) 2019-04-01 – 2023-03-31
Keywords自律ロボットの内部状態提示 / 人ーロボットの協調
Outline of Annual Research Achievements

人とロボットの円滑なインタラクションの実現を目的に,ロボットの環境に対する認識状態や行動選択等の内部状態を周囲の人々に提示する手法を検討した.望ましい提示情報や提示方法はロボットが活動するシーンにより異なると考えられたため,自律移動ロボットが人と同じ空間を移動するシーンと,人とロボットが対話を行うシーンを対象として研究を進めた.車いすロボットが人を乗せて移動するシーンでは,歩行者や障害物などの内部状態を車椅子に設置したエージェントロボットのジェスチャを用いて提示する方法を提案し,検証実験を行った.ロボットのジェスチャによる提示とアイコン等を用いて内部状態を記号的に提示する方法を比較した.実験の結果,いずれの提示手法が人とロボットの協調的な移動を支援することを確認した.記号的な提示では対象物を正確に伝える効果が大きい一方で,ロボットのジェスチャによる提示では対象物への視線誘導効果やロボットへの親しみやすさへの効果が確認できた.
最終年度は,人とロボットの対話シーンを対象として研究を進めた.ユーザの発話意欲やロボットの傾聴効果を増大させる目的で,ロボットが認識したユーザの発話内容を画像としてロボットのディスプレイに提示する方法を提案した.官能評価実験では提案法を音声認識結果のテキストを提示する方法と比較した.実験の結果,傾聴の度合いやロボットへの親しみに関する官能評価での有意な差は確認されなかったが,提案法では肯定的な評価が得られた.また,実験参加者へのインタビューでは提案法に対する否定的な意見はなく,提案法がロボットの傾聴効果の増大や対話の促進に寄与する可能性が示唆された.
総じて,ロボットの内部状態提示が人-ロボットインタラクションを支援することを確認できた.提示法により支援の特性は異なるため,目的に合わせて手法を選択することや組み合わせて使用することが考えられた.

  • Research Products

    (3 results)

All 2023 2022

All Presentation (3 results) (of which Int'l Joint Research: 1 results,  Invited: 1 results)

  • [Presentation] Human-Computer Interaction Technology that Assists in Using a Mobility System2023

    • Author(s)
      Hisato FUKUDA
    • Organizer
      3rd International Conference on Electrical, Computer and Communication Engineering (ECCE), 2023.
    • Int'l Joint Research / Invited
  • [Presentation] 対話ロボットのためのユーザの発話内容に基づく画像提示2023

    • Author(s)
      福田悠人,鈴木亮太,小林貴訓
    • Organizer
      電子情報通信学会総合大会, 2023.
  • [Presentation] 車載音声UIの発話タイミング提示がドライバの予期に与える影響の評価2022

    • Author(s)
      寺尾道哉,岡本真也,福田悠人,岩瀬勉,三国司,町田紀人
    • Organizer
      ヒューマンインタフェース学会研究報告集,Vol. 24,No. 8, SIG-CE-26,2022.

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi