本研究は,語学の発音学習において,発音動作の何処が具体的に誤っており,どうすれば矯正できるのかを学習者が容易に理解できるように,音声情報から調音動作を推定し,調音動作を可視化することを目的としている.そのため,学習者の音声から調音動作(調音様式(破裂音,摩擦音,破擦音,鼻音,半母音など)と調音部位(口唇,歯茎,口蓋,咽喉などの位置(子音の場合)や,舌の最も盛り上がる位置と口の開閉度(母音))の諸属性)を抽出するためのアルゴリズムを開発し,その調音特徴を母音チャート図(矩形型,横軸:舌の盛り上がる位置,縦軸:口の開閉)および子音チャート図(横軸:調音様式,縦軸:調音部位)にリアルタイムにプロットする技術の開発を目指している. 平成30年度は初年度および平成28年度に開発した調音特徴抽出アルゴリズムを用いて,調音特徴を母音・子音チャート上に精度よく変換する座標変換器の開発と改良を実施した.また,直感的に分かり易い母音・子音チャートのユーザインタフェース(UI)を開発し,先の座標変換器をもとに調音特徴をリアルタイムにチャート上に表示するプロット変換器を開発した.そして,音声-調音特徴変換器およびチャートへのプロット変換器を統合することで,学習者が発音すると,システムはその音声を調音特徴に変換し,母音・子音チャート上にリアルタイムにプロットする.本システムはHTML5とJavascriptにより実装し,Webブラウザ上で利用することができる.
|