研究概要 |
現在主流となっている波形接続方式の音声合成では,部分的な合成音の品質は優れているものの,連続音での不自然性や声質変換や話速制御などの融通性に問題がある。これに対し,音声生成過程に基づいた手法は,人間がしゃべるメカニズムを模倣した声帯や声道のモデルに基づいているため,融通性の高い次世代インターフェースとしてのポテンシャルを有している。 平成17年度は,前年度に作成したGUIによるパラメータ操作が可能な合成システムの開発と,シミュレーションの効率的な運用のためCUI方式のシステム開発を継続して進め,声帯振動音源の実装による有声音声の生成など,その高度化を進めた。これにより,合成できる子音数を増やすことが可能になった。また,シミュレータを用いて,声帯振動や子音閉鎖,および解放の時刻の調整実験を行うことで,より良好な子音生成のための条件の導出を行った。更に,子音の断面積データを過去の文献等を参考に決定し,日本語50音の合成実験を行い,ほぼ認識できる音質の合成音を生成することが可能となった。 音声合成システムでは,声道の直円筒管表示の形態をとっているが,実際の3次元の声道形状との位置的対応関係の把握が容易ではないという問題があった。このため,擬似的ではあるが,3次元の声道形状表示ツールを新たに開発した。このツールではMRIデータを基に正中矢状面における声道輪郭を抽出し,声道断面積を円や楕円で表すα-βモデルで表現している。このツールの開発により,より少ない制御パラメータで音声合成システムを駆動する仕組みも実現することができた。
|