2010 Fiscal Year Annual Research Report
聴覚障害が引き起こす音声の不明瞭要因の解析と対話型発話訓練ロボットの構築
Project/Area Number |
21500517
|
Research Institution | Kagawa University |
Principal Investigator |
澤田 秀之 香川大学, 工学部, 教授 (00308206)
|
Keywords | 発話訓練 / 発話ロボット / 聴覚障がい者 / 支援技術 / 音声 / 自己組織化ニューラルネットワーク / 聴覚フィードバック / 構音障害 |
Research Abstract |
発話動作をおこなう器官をエアポンプ、人工声帯、声道共鳴部、鼻腔部など、全て機械系によって構成した、移動可能な発話ロボットの構築を進めた。本年度は、計算機による聴覚フィードバック制御によって、ロボットが自律的に発話動作を獲得し、任意の音声を生成することができる学習機構を実現した。発話ロボットは、声道部の断面形状を9個のモータにより変形させ、任意の共鳴特性を付加することによって音声を生成する。ロボットが自律学習によって獲得した音声について、健聴者の音声および聴覚障がい者の音声と比較し、音響的特徴、口内形状、発話動作の点から考察をおこなった。 まず、二つの自己組織化マップの位相構造の対応関係を柔軟に学習可能な、Dual-SOMを提案した。Dual-SOMを使った学習機構を聴覚フィードバック制御と組み合わせることによって、ロボットが柔軟に発話動作を獲得して、自律的に音声を生成することを可能とした。自律学習過程でロボットの音声が、目標として与えた人間の音声に近づいていく過程を解析しながら、人間の音声学習機構との比較、考察をおこなった。次に、ロボットの音声獲得機構を応用し、聴覚障がい者の不明瞭音声の生成要因について、考察した。聴覚障がい者は、自身の声を聴くことができないため、音声の獲得に困難がある。特に口内の舌を初めとする発話器官の動作は外側から見ることができず、見本となる発話動作を見て訓練することができない。そこで、発話ロボットに不明瞭音声の発話動作を再現させ、障がい者の口内の発話動作との違いを呈示することにより、発話訓練装置が提案できる。本年は、自己組織化マップ上の位相構造に着目し、障がい者音声と健聴者音声、ロボットの獲得音声との音響的特徴を考察した。次年度は、音響的特徴の違いを発話動作として再現させ、ロボットとの対話による発話訓練システムの実現につなげる。
|