研究分担者 |
尾形 哲也 京都大学, 情報学研究科, 准教授 (00318768)
駒谷 和範 京都大学, 情報学研究科, 助教 (40362579)
高橋 徹 京都大学, 情報学研究科, 助教 (30419494)
中臺 一博 東京工業大学, 情報理工学研究科, 准教授 (70436715)
白松 俊 名古屋工業大学, 工学研究科, 助教 (80548595)
|
研究概要 |
平成21年度は要素技術の洗練化と公開,及び,ツールの総合化に取り組んだ. (1)実時間ロボット聴覚ソフトウエアHARKの機能拡張と講習会の実施: ロボット身体性としてインパルス応答を組み込んだMUSIC法による音源定位とGHDSSによる音源分離により,単語音声認識率が約10%向上.さらに,ロボットの自己生成音(発話,歌声)を抑制し,相手の発話だけを聞き分けるセミブラインドICAの高速化を達成.昨年同様,慶応大学とパリのUPMCで全日講習会を実施し,3話者同時発話認識のライブデモを実施.ロボット聴覚研究の世界展開を目指し,IEEE-SPSのICASSP-2009,IEEE-RASのIROS-2009でロボット聴覚特別セッション各々開催. (2)自己発話抑制機能によるバージイン発話におけるユーザ意図推定: 発話内容と発話タイミングにより,列挙型音声対話システムでの指示対象の同定法を開発. (3)アンサンブル演奏のためのテルミン演奏ロボットの開発とアンサンブル法の予備実験: 音高・音量モデルを構築し,ハードに依存しないテルミン演奏法を開発.3体のロボットで実証.アンサンブル演奏で開始,終了タイミングを人のジェスチャから同定し.合奏するシステムを開発. (4)ロボットの挙動経験に基づいた物体ダイナミクスの予測: MTRNNにより学習した物体のダイナミクスのモデルを通じて,物体の動きを予測する機能を実現. (5)音環境可視化と談話の流れの可視化とを組み合わせた新しい情報提示方法を開発. (6)米国Willow Garage社のテレプレゼンスロボットTexaiにHARKを搭載し,可視化システムを実装.
|