研究分担者 |
尾形 哲也 京都大学, 情報学研究科, 准教授 (00318768)
駒谷 和範 名古屋大学, 工学研究科, 准教授 (40362579)
高橋 徹 京都大学, 情報学研究科, GCOE助教 (30419494)
白松 俊 名古屋工業大学, 工学研究科, 助教 (80548595)
中臺 一博 東京工業大学, 情報理工学部・研究科, 連携教授 (70436715)
|
研究概要 |
平成23年度はロボット聴覚システムの総合化と評価に取り組んだ. (1)ロボット聴覚ソフトウエアHARK1.1.0版のリリースと講習会の実施:機能の再構成とツール群の整備により,認識性能・ロバスト性が向上.既成品の4本マイクアレイ(KINECT, PlayStation Eye)のサポートによるユーザ層の拡大を狙う.各々200ページ弱のマニュアルとクックブック(日英版)を改訂し,公開.パリと名古屋で講習会実施.ATR等のユーザへ継続的サポートを実施.IEEE/RSJ IROS-2011でロボット聴覚シンポジアを開催. (2)発語行為レベル情報によるユーザ意図解釈:ユーザの割込発話に対してシステム発話抑制機能から得られる発話内容と発話タイミングを利用したユーザ発話の意図解釈機能の詳細な評価を行い,ジャーナル論文の投稿・掲載. (3)テルミン演奏ロボットを用いた人間共演者とのアンサンブル演奏:小型ヒューマノイドロボットNAOにテルミン演奏システムを移植し,ギター,打楽器などとの共演が可能になる.IROS-2011,人工知能学会合同シンポジウムでデモ実施.実時間楽譜追跡の性能向上をKINECTを使ったパーティクルフィルタ法により実現.多重奏音楽音響信号からのパート分離性能向上をノンパラメトリックベイズ法により達成. (4)ロボットの挙動経験による身体性の獲得:MTRNNによる神経力学モデルを用いて,ロボットが自己の挙動を自発的に経験することによって,自己と他者との区別する能力,道具を自己の体の一部とする道具身体化能力を実現. (5)マルチモーダルな感情表現のモデル化としてDESIRE (Description of Emotion by Speed, Intensity, Regularity, and Extent)を提案し,ロボットのジェスチャ,音声,音楽での間の統一的感情表現を可能とする.ジャーナル論文掲載.
|