研究分担者 |
尾形 哲也 京都大学, 情報学研究科, 准教授 (00318768)
駒谷 和範 名古屋大学, 工学研究科, 准教授 (40362579)
高橋 徹 京都大学, 情報学研究科, GCOE助教 (30419494)
白松 俊 名古屋工業大学, 工学研究科, 助教 (80548595)
中臺 一博 東京工業大学, 情報理工学研究科, 連携准教授 (70436715)
北原 鉄朗 日本大学, 文理学部, 講師 (00454710)
|
研究概要 |
平成22年度はロボット聴覚システムの要素技術洗練化による再構築,及び,その応用に取り組んだ. (1)ロボット聴覚ソフトウエアHARK1.0.0版のリリースと講習会の実施:機能の大幅な見直しとツール群の整備により,認識性能・ロバスト性が向上.各々200ページ弱のマニュアルとクックブックを日英版で作成し,公開.HRP-2上で3話者同時発話認識が安定して動くようにノウハウを確立し,講習会ではロボットを会場に持ち込みライブデモを実施.ATR等のユーザへ継続的サポートを実施.IEEE-RASのIROS-2010でロボット聴覚特別セッションを3セッション連続開催. (2)発語行為レベル情報によるユーザ意図解釈:バージイン発話に対してシステム発話抑制機能から得られる発話内容と発話タイミングを利用したユーザ発話の意図解釈機能を開発.列挙型音声対話を併用した対話戦略に応用し,音声対話システムのロバスト性を向上. (3)テルミン演奏ロボットを用いた人間共演者とのアンサンブル演奏:人間のフルート演奏者のジェスチャ認識によるアンサンブル同期を開発し,テルミン演奏とボーカロイドによる歌唱というアンサンブル演奏を実現.IROS-2010 NTF Award受賞.実時間楽譜追跡のエラーをベイズ手法により削減.さらに,多重奏音楽音響信号から特定パートに対して残響を含めたフレーズ置換法をベイズ推定により開発. (4)ロボットの挙動と言語との総合的認知:MTRNNによる神経力学モデルを用いて,ロボットの体を動かす動作とそれを指示する言語との対応関係を自動学習し,言葉でロボットに動作を指示でき,逆に指示された動作を言葉で表現できるという挙動と言語との双方向理解を実現. (5)音環境可視化と談話の流れの可視化とを組み合わせた新しい情報提示方法を開発.
|