2012 Fiscal Year Annual Research Report
聴覚インタラクションの実現に向けた実環境ロボット聴覚の研究
Publicly Offered Research
Project Area | Founding a creative society via collaboration among humans and robots |
Project/Area Number |
24118702
|
Research Institution | Tokyo Institute of Technology |
Principal Investigator |
中臺 一博 東京工業大学, 情報理工学(系)研究科, 教授 (70436715)
|
Project Period (FY) |
2012-04-01 – 2014-03-31
|
Keywords | ロボット聴覚 / 音環境理解 / 自己雑音抑圧 / 人ロボット共生学 / マイクロホンアレイ処理 |
Outline of Annual Research Achievements |
人とロボットが実環境で,より自然にインタラクションを行う「人ロボット共生のための聴覚インタラクション」実現のため,実環境ロボット聴覚技術を開発することを目的とし,当該年度は,以下の2点の基礎技術の洗練化・高機能化に焦点を絞って研究を行った. センサ同期技術:ロボビー W の自己発生雑音と動作指令値の時刻ずれの性質を利用して,指令値ベースの自己雑音抑圧手法の提案を新規に行った.指令値は観測値よりも前に得られるため,従来の観測値ベース法より高速に自己雑音推定が可能であることをシミュレーションにより示した.また,同じ指令値/観測値に対する自己雑音の揺れに対処できる自己雑音推定のモデル化が可能かどうか予備検討を行った.この予備検討結果に基づき,H25年度は,動作情報自体を不要とする汎用性が高い自己雑音推定手法を構築予定である. 実環境ロボット聴覚技術:混合音を扱うため,独立成分分析手法の発展形として,近年注目を浴びている音源分離手法である独立ベクトル分析(IVA) とマイクロホンアレイ分離処理に適した特徴量として知られるメルスケール対数スペクトラム(MSLS)を用いた音声識別器を構築した.この識別器を室内設置型マイクロホンアレイと合わせて利用することにより,話者名,話者位置,各話者の発話時刻を同時推定できるシステムを構築した.また,5名の話者が自由発話する状況で,雑音頑健性が高いことで知られるMUSIC法と比較し,良好な性能であることを実証した.さらに,話者名,話者位置,各話者の発話時刻を表示できるオフライン版ビューワーを構築した.ビューワのオンライン処理化,タブレットデバイス等での音の可視化をH25年度は進める予定である.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
当該年度の目標は,ロボット動作に対応する基礎技術を確立するとともに,室内設置型マイクロホンアレイを用いて,実環境でロバストに定位・分離・認識を行い,結果を視覚化するシステムを構築することであった.ロボット動作に対しては,自己雑音と動作の非同期性を検証し,そのモデル化が可能である点まで明らかになった.また,実環境ロボット聴覚技術は,5名の話者が自由発話する状況でも,話者名,話者位置,各話者の発話時刻を同時推定できるプロトタイプシステムをビューワーとともに構築した.以上より,当初の目標がほぼ達成できたことから,計画通り研究を進めることができたと考える.
|
Strategy for Future Research Activity |
H25年度は,自己動作雑音と動作に関する予備検討に基づき,近年注目を集めているノンパラメトリックベイジアンモデルを用いて,動作情報自体を不要とする汎用性が高い自己雑音推定手法を構築,その有効性を実証することを目指す.動作情報が不要となれば,特別なセンサを持たないロボットでも動作音抑圧が可能となるため,学術的にも,実用的にも価値が高い技術が構築できる可能性があるため,この技術の確立に注力する予定である.また,実環境ロボット聴覚技術については,話者名,話者位置,各話者の発話時刻取得のオンライン化,ポータブルな可視化技術の確立も同時に進める予定である.
|
Research Products
(18 results)