人とロボットが実環境で,より自然にインタラクションを行う「人ロボット共生のための聴覚インタラクション」実現のため,実環境ロボット聴覚技術を開発することを目的とし,当該年度は,個別基礎技術の洗練化とその統合技術に取り組んだ. (1) 実環境ロボット聴覚のためのセンサ同期技術については,自己雑音推定技術のロボット実機上での評価にフォーカスをあて研究を行った.非負値行列分解をノンパラメトリックベイズモデルを用いて拡張した自己雑音抑圧は,マイクロホン1本で,動作リファレンスを必要としない手法であるため,①マイクロホン間同期処理,②音―動作間同期処理が不要になるというメリットがある.まず,移動台車付ヒューマノイドロボット Hearboで,従来手法の中で高い性能が報告されているテンプレート法と比較を行ったところ,信号対雑音比,信号対妨害音比において,従来手法を上回る性能を確認できた.また,実際に人ロボット共生学のターゲットロボットの一つであるRovbovie Wを用いて評価を行ったところ,Hearbo とほぼ同等の性能が得られた.Robovie W は関節角情報が得られないため,従来法は適用できないことを考慮すると,提案法は,高性能かつ適用範囲が広いといえる. (2)よい聞き手ロボット構築のための実環境ロボット聴覚技術については,これまで研究開発を行ってきた,①音声の聞き分けを行うためのノンパラメトリックベイズモデルに基づく音源同定手法,および,② 音環境理解のためのマイクロホンアレイを用いた定位・分離・認識の統合技術を構築し,オープンソースのロボット聴覚ソフトHARK上で動作可能とした.さらに,③ 可視化技術に関しては,千葉大学大武研究室と共同で,卓上型マイクロホンアレイ「くらげ君」を開発し,上述のHARKを動作させることで,発話の方向やタイミングを,直感的でわかりやすく視覚化するツールを構築した.
|