研究概要 |
ロボット聴覚の最下位の機能とは「ロボット自身の耳」から入力される音の処理である. (1)複数同時発話を聞き分け,裁いたという聖徳太子のような聴覚機能を実現するために,音環境理解の3要素技術である音源定位,音源分離,分離音認識の適用限界を明確にした汎用のロボット聴覚設計原理を確立.また,階層的視聴覚情報統合による複数移動話者の定位・分離・認識技術を確立する. (2)人の音環境理解及び聴覚メカニズムを解明するために,音声模倣を規範とした音素獲得過程を特に,音素集合を与えない連続音響信号からの音素獲得のモデル化を行う. (3)ヒューマノイドロボットにおける音声対話機能,特に,ユーザビリティの高い音声対話を実現するには,ユーザが自由なタイミングで割り込んで(バージイン)発話でき,かつ自由な表現で発話できる枠組みが不可欠である.前者は自己発話抑制機能による枠組みを,後者はシステムが解釈できな想定外発話への対処法を開発する.
|