本課題は「構音器官(舌)の動き」を「指の動き」に代替して、操作盤面上を指やペンでなぞると、アナログ楽器のようにリアルタイムに無段階的に位置と動きに基づいた声が生成される支援方式を発展させる研究である。「構音」と「発声」の双方の機能を分け、構音障害では残された「発声」機能を利用し、発声障害では残された「構音」機能を用いることを想定して、音声知覚や発話原理の解明を行い、ポータブルな専用機を開発することを目標としている。 これまでに、声質維持アルゴリズムの改良(構音・発声機能)として、特別な知識を持たない者でも個人の音声を容易に再現する設定ができる簡易アルゴリズムを提案し(2017年度)、一方ではマイコン制御による音声入出力装置の設計と試作を行い、話者自身の抑揚をそのまま用いて構音機能を補う支援器の実現性を示してきた(2018年度)。そしてこれらを統合して、マイコン試作器に声質維持アルゴリズムを組み込み、簡易声質維持機能を持つ試作器へと発展させた(2019年度)。2020-2022年度には、入出力モジュールやハードウェア処理速度の検討、構音器官の可動範囲を考慮した座標変換手法を提案し実証してきた。 これらを踏まえて2023年度には、発話中の構音器官の運動速度と、ジョイスティック入力可能な運動速度の差異に着目し、マイコンによる試作機上で、逐次に話速を補うことにより、音声の明瞭化と変換音声の印象の向上を改善する方法を提案し、試作機により実証した。 以上から、本人に残された発声機能を最大限に活かした支援手法を示すことができ、その過程で、不自然な音声の発生理由や声質の個人性の知覚、声の印象等に関する知見を得た。
|