2019 Fiscal Year Annual Research Report
Articulatory text-to-speech synthesis based on digital waveguide mesh driven by deep neural network
Project/Area Number |
17K20004
|
Research Institution | Nagoya Institute of Technology |
Principal Investigator |
徳田 恵一 名古屋工業大学, 工学(系)研究科(研究院), 教授 (20217483)
|
Co-Investigator(Kenkyū-buntansha) |
南角 吉彦 名古屋工業大学, 工学(系)研究科(研究院), 准教授 (80397497)
|
Project Period (FY) |
2017-06-30 – 2020-03-31
|
Keywords | 音声合成 / 音声情報処理 |
Outline of Annual Research Achievements |
本研究の目的は、あらゆる声質を柔軟に表現可能な音声合成システムを構築するため、実際の人間の発声機構に則した調音モデルをテキスト音声合成システムに組み込み、その有用性を検証することにある。まず始めに、ディープニューラルネットワークの枠組みの中で2次元ディジタル・ウェーブガイド・メッシュ調音モデルを定式化し、調音モデルをテキスト音声合成システムに組み込むアイディアを数式として表現した。さらに、導出した数式をもとに調音モデルを組み込んだテキスト音声合成システムを構築することに成功した。但し、音声波形から調音モデルを逆推定するための実現可能性の検証を重視していたため、比較的単純なモデル構造を仮定していた。このため調音モデルを組み込んだテキスト音声合成システムから生成される音声の品質には一定の限界があることがわかった。そこで、WaveNetを始めとする最新の音声波形生成手法との融合を目指し、より自然な音声の生成に取り組んだ。これらの音声波形生成手法において、音声波形モデルは調音モデルの構造を部分的に含んでいると考えられる。このような観点から、調音モデルと音声波形モデルの関係性の調査と調音モデルと音声波形モデルの融合を目指し、合成音声の声質や感情の制御の検討を行った。ディープニューラルネットワークに基づく音響モデルの入力に話者コードやフレーズコードなどを加えることで、声質や感情を制御可能な音声合成システムを実現することができた。さらに敵対的学習などの学習手法を適用することで、より高品質な合成音声を生成可能とした。また、発話スタイル等を表す潜在変数の階層化などにより、モデル化精度の向上を図った。
|