研究実績の概要 |
本研究では、手足の動作で合成音声のパラメータを即時的に制御するMotion-To-Speech(MTS)型の音声合成において、モーションセンサーで計測した腕の運動 情報からトリガーとなる動作を検出し、発話時の運動指令に対応するターゲットを更新する新たな手法の開発を目指している。これを実現するために人間工学的 な動作計測実験と、発声時の運動指令の構造を調べる発話分析実験を行う。 2019年度に行った動作計測実験の結果、手の動作によりフォルマント周波数を直接的に制御する手法では、/w/や/y/などのわたり音の生成に必要な遷移速度を実現することが難しいことが明らかになり、これに対応するために2020年度は手の空間位置だけでなく指先で制御するスイッチを用いた制御手法について検討した。 ここで検討した手法は、母音から母音への遷移は従来通り手の空間位置で、わたり音/w,y/や破裂音/p,t,k,b,d,g/など高速なフォルマント遷移を必要とする音韻は指先のスイッチでそれぞれ制御するものである。この手法の有効性を検証するために、モーションセンサーのマーカーと6個のスイッチを内蔵した入力デバイスを開発した。デバイスの基本的な性能を把握するために、ランダムに提示される番号に対して、それと対応したスイッチをできるだけ早く正確に押下させる実験を行った。被験者6名、試行回数500回の計測実験の結果、(1)誤ったボタンが押下される割合は約12%であり、特に人差指、中指、薬指間の押し間違いが多いこと、(2)番号が提示されてからボタンが押下されるまでの平均反応時間は0.8秒であること、(3)これらは入力デバイスのサイズやボタンの配置を改良した場合も殆ど変わらないことが分かった。この結果は、高速なフォルマント遷移を実現するためには、制御法について更なる改良が必要であることを示唆するものである。
|