• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2001 Fiscal Year Annual Research Report

アイコンタクト型対話ロボットの研究

Research Project

Project/Area Number 12480078
Research InstitutionGifu University

Principal Investigator

伊藤 昭  岐阜大学, 工学部, 教授 (40302301)

Co-Investigator(Kenkyū-buntansha) 小島 秀樹  独立行政法人, 通信総合研究所, 主任研究員
Keywordsアイコンタクト / 対話 / 視線検出 / 心の理解
Research Abstract

1.アイ・コンタクト型対話ロボットの制作
人とのアイ・コンタクトを目指したアイ・コンタクト型ロボットを制作した。ロボットは人の頭部とほぼ同一に作られており、首(上下、左右)、目(上下、左右、左右は両眼独立動作)口(上唇、下唇)の7自由度である。本体はPC(Linux)に接続されており、画像処理、ロボットのモータ制御を行う。視線方向で言えば、数百ミリ秒で目的物に視線を向けることができる。目には、望遠、広角、2種類のカメラが搭載されており、人の高速ズームに代わる注視機能を実現している。
2.顔方向、視線方向の抽出の実時間処
アイ・コンタクト型対話ロボットを用いて以下のような機能の開発を行っている。
1)ロボットに搭載のCCDカメラを用いて取得した広角画像から顔領域を抽出する。2)顔画像が正面にくるようにロボットの顔、視線方向を制御する。3)望遠画像から顔領域、目領域を切り出し、顔の傾き、黒目の位置から視線方向を推定する。4)人の注視対象の方向に自分の視線を戻し、人の注視対象物を同定することを目指す。現在、1-3までの開発が進んでおり、ほぼ実時間(百ミリ秒程度)で顔のトラッキング、視線方向の推定を行っている。これらの処理には複数のPCを用いた並列処理を行っている。
3.人とロボットの対話実験
開発中アイ・コンタクト型対話ロボットの用いて、人とロボットの対話実験を開始した。現在は音声認識機能は実現されていないので、人が応答を行う。出力は合成音声を用いる。実験の目的は、このような対話において人の視線の使い方、ロボットの視線制御に対する人の反応、などを実験状況を記録したビデオから解析することである。

  • Research Products

    (3 results)

All Other

All Publications (3 results)

  • [Publications] Ito, A., Kanabuchi: "Speeding Up Multiagent Reinforcement Learning by Coarse-Graining of Perception : The Hunter Game"Electronics and Communications in Japan. 84・12. 37-45 (2001)

  • [Publications] 小嶋 秀樹, 高田 明: "社会的相互行為への発達的アプローチ…社会のなかで発達するロボットの可能性"人工知能学会誌. 16・6. 812-818 (2001)

  • [Publications] 瀧 寛和, 石川幹人, 伊藤 昭, 岡 夏樹: "機械は心を持てるか"情報処理. 43・1. 57-65 (2002)

URL: 

Published: 2003-04-03   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi