• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2017 Fiscal Year Annual Research Report

Study on Creativity of Robot Inspired from Subjective Process of Human

Research Project

Project/Area Number 16K12509
Research InstitutionTokyo University of Agriculture and Technology

Principal Investigator

水内 郁夫  東京農工大学, 工学(系)研究科(研究院), 准教授 (60359651)

Project Period (FY) 2016-04-01 – 2018-03-31
Keywords主観評価 / システムの振る舞い生成 / ヒューマンロボットインタラクション / 動作生成 / 絵画創造 / 形状と動作 / 疑似言語発話先生 / スキル転送
Outline of Annual Research Achievements

様々な対象(場)において以下の(1)~(3)の3項目を研究した。
(1)人間の主観的評価データの収集:様々な場において、人間の主観的な印象や直感的に感じたことを、アンケートや表情推定等により収集した。具体的には、(a)ヒトとロボット等の関わりにおいて、人がロボット等の行動や振る舞いに対して感じた主観的印象、(b)非人型ロボットに対して人型ロボットからの掛け合いの有無による人の印象の変化、(c)様々な絵画に対する人の主観評価、(d)人がキッチンロボットを操縦している時のうまく操縦できたかどうかの主観的評価、等である。
(2)機械学習を用いた主観的評価の推定手法の研究:(1)で収集したデータを訓練データとして機械学習(ニューラルネットワーク等)を行った。絵画の情報・ロボット動作の情報・その他の状況等を入力とし、人の主観評価を出力とした。これにより、少なくとも訓練データと同様の入力に対しては同様の評価が行えるようになるとともに、訓練データと異なる入力に対しても、人による主観評価と同じような評価を出力できるようにすることがある程度できるようになった。ただし、有り得るデータの多様性に対して、(1)で収集した訓練データが充分に多様とは言えないような場合には、主観に近いデータと近くないデータが出力される場合があった。
(3)主観評価推定器の利用法の研究:対象とする様々な場において、(2)の主観評価推定器を活用することを試みた。具体的には、(a)ヒトとロボット等の関わりにおいて人が受ける印象を良くするようなロボット等の行動・振る舞いの選択や生成、(c)新規な絵画の生成、等である。(b)非人型ロボットへの印象や(d)高スキルな動作の自動生成等にも取り組んでいるが、まだ適切な利用法を確立できたという段階には至っていない。
最終年度は上記に関し、査読付き国際会議論文4件、国内学会発表論文4件を発表した。

  • Research Products

    (10 results)

All 2017 Other

All Int'l Joint Research (1 results) Journal Article (4 results) (of which Int'l Joint Research: 1 results,  Peer Reviewed: 4 results) Presentation (4 results) Remarks (1 results)

  • [Int'l Joint Research] ボッシュ(ドイツ)

    • Country Name
      GERMANY
    • Counterpart Institution
      ボッシュ
  • [Journal Article] Hanamogera speech robot which makes a person feel a talking is fun2017

    • Author(s)
      Kazumi Kumagai, Kotaro Hayashi, Ikuo Mizuuchi
    • Journal Title

      Proceedings of the 2017 IEEE International Conference on Robotics and Biomimetics

      Volume: - Pages: 463--468

    • DOI

      10.1109/ROBIO.2017.8324460

    • Peer Reviewed
  • [Journal Article] Investigation of Joint action: Eye Blinking Behavior Improving Human-Robot Collaboration2017

    • Author(s)
      Kotaro Hayashi, Ikuo Mizuuchi
    • Journal Title

      Proceedings of 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN)

      Volume: - Pages: 1133--1139

    • DOI

      10.1109/ROMAN.2017.8172446

    • Peer Reviewed
  • [Journal Article] Evaluating the usability and users' acceptance of a kitchen assistant robot in household environment2017

    • Author(s)
      T. X. N. Pham, K. Hayashi, C. Becker-Asano, S. Lacher, I. Mizuuchi
    • Journal Title

      Proceedings of 26th IEEE International Symposium on Robot and Human Interactive Communication (RO-MAN)

      Volume: - Pages: 987--992

    • DOI

      10.1109/ROMAN.2017.8172423

    • Peer Reviewed / Int'l Joint Research
  • [Journal Article] Operating a Robot by Nonverbal Voice Based on Ranges of Formants2017

    • Author(s)
      Shizuka Takahashi, Ikuo Mizuuchi
    • Journal Title

      Proceedings of 2017 3rd International Conference on Control, Automation and Robotics

      Volume: - Pages: 202--205

    • DOI

      10.1109/ICCAR.2017.7942687

    • Peer Reviewed
  • [Presentation] 人とロボットの協調作業における瞬きに関する研究2017

    • Author(s)
      林 宏太郎, 水内 郁夫
    • Organizer
      第35回日本ロボット学会学術講演会講演論文集, RSJ2017AC1G2-02
  • [Presentation] 個人に合わせたロボット行動生成のための気分変化予測手法構築に向けた環境と気分変化の関係の学習と考察2017

    • Author(s)
      熊谷 和実, 林 宏太郎, 水内 郁夫
    • Organizer
      第35回日本ロボット学会学術講演会講演論文集, RSJ2017AC1G1-02
  • [Presentation] 注目領域の構造化を用いた新規の具象画像生成法2017

    • Author(s)
      佐藤 哲朗, 水内 郁夫
    • Organizer
      第20回 画像の認識・理解シンポジウム(MIRU2017)講演論文集, PS1-21
  • [Presentation] 音の時系列データに対する聞き手の印象評価結果に基づく音生成システム2017

    • Author(s)
      熊谷 和実, 林 宏太郎, 水内 郁夫
    • Organizer
      日本機械学会ロボティクス・メカトロニクス講演会2017講演論文集, 2A2-F06
  • [Remarks] 東京農工大学水内研究室

    • URL

      http://mizuuchi.lab.tuat.ac.jp/

URL: 

Published: 2018-12-17  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi