発話動作をおこなう器官をエアポンプ、人工声帯、声道共鳴部、鼻腔部など、全て機械系によって構成した、ポータブルな発話ロボットの構築を進めた。また計算機による聴覚フィードバック制御によって、ロボットが自律的に発話動作を獲得し、任意の音声を生成することができる学習機構の実装をおこなった。発話ロボットは、声道部の断面形状を9個のモータにより変形させ、任意の共鳴特性を付加することによって音声を生成する。声道物理モデルの制御パラメータと、生成される音響パラメータとの対応付けを、聴覚フィードバックによる自律学習によって適応的に獲得させることにより、人間と同様な発話動作を再現することを可能とした。 ロボット声道部のモータ制御量と音響特徴パラメータを、柔軟かつ適応的に対応付け可能な、自己組織化ニューラルネットワーク(SONN)を提案した。自己組織化マップ(SOM)とNNの可塑性により、未学習の音響パターンに対しても、学習パターン対から獲得される入出力関係が反映された、モータ制御パラメータ値が得られることを示した。つまり、音響間の類似度がマップ上の距離情報として保持された、音素マップが自己組織的に作られることが実証できた。これにより、マップ上で同じ母音どうしが近接に纏まってクラスタを作り、また聴覚障碍者の不明瞭音声は、健聴者音声クラスタ域から外れて配置されることを確認した。不明瞭音声と、明瞭音声クラスタとの距離を元に「明瞭度尺度」を定義し、ロボットの発話動作との違いを示すことによって発話訓練をおこなうシナリオを構築した。次年度は、聴覚障碍者の協力を得て、ロボットとの対話による発話訓練実験をおこない、システムの有効性を確認していく。
|