研究概要 |
(1)「音を聞き分ける」音の量的爆発促進技術 : 使用環境, 設置条件に関する事前知識量を極力減らした実時間ロボット聴覚ソフトウエア「HARK」を5月から公開を始め, 11月に京都大学で, 12月には韓国KISTで無料講習会を開催した. 今年度開発したHARKの新機能は, 従来の2値マスクから連続値のソフトマスクによるミッシングフィーチャマスク自動生成法であり, 音声認識率が10%程度向上した. また, ロボットの自己生成音を抑制するICAによるセミブラインド分離法も開発し, 音楽ロボットに応用した. すなわち, ロボットが自分の出す歌声やハミングの影響を抑制し, 音楽だけを聞いて実時間でビート認識する音楽ロボットを開発した. IEEE/RSJ IROS-2008発表の2本の論文が, Award for Entertainment Robots and Systems (NTF Award) Nomination Finalist 4件中の2件に選ばれた. (2)「音を見せる」音の質的複雑さ軽減技術 : HARKと3D viewerを組み合わせた音環境可視化システムに, 既開発の俯瞰モードでの機能拡充,及び, 没入感モードでの「音アウエアネス」提示機能を開発した. 前者は, 音環境の早送り提示, 音声認識結果のカラオケ風表示, 及び, 機能の洗練化である. 後者に対しては, 音の気付きという音アウエアネスを向上させるには, 単なる高忠実音場再生ではなく, 分離合成というプロセスが不可欠であるという観点から取り組んだ. 人の動きは, ディスプレイ上に設置したステレオカメラで取得した画像データから色情報を用いた最近傍探索で認識している. 音の没入モードでの提示に分離合成というアプローチは他に例がなく, 今後の展開の可能性が示唆された.
|