研究課題/領域番号 |
09780326
|
研究種目 |
奨励研究(A)
|
配分区分 | 補助金 |
研究分野 |
知能情報学
|
研究機関 | 名古屋大学 |
研究代表者 |
武田 一哉 名古屋大学, 工学研究科, 助教授 (20273295)
|
研究期間 (年度) |
1997 – 1998
|
研究課題ステータス |
完了 (1998年度)
|
配分額 *注記 |
2,000千円 (直接経費: 2,000千円)
1998年度: 1,000千円 (直接経費: 1,000千円)
1997年度: 1,000千円 (直接経費: 1,000千円)
|
キーワード | 音声認識 / 統計的言語モデル / 言語エントロピー / 統計的音声モデル / 特異値分解 / 単語・文脈クラスタリング / 大規模言語コーパス / 形態素解析 / 一般化ベルヌ-イ試行 / 連続音声認識 / 言語モデル / 単語パ-プレキシティー |
研究概要 |
音声認識における、統計的言語モデルと統計的音声モデルとの統合過程において必要とされる、言語重みと単語挿入ペナルティーの理論的意味づけに取り組んだ。これらのパラメータはこれまで経験的な、調整パラメータとして扱われてきたが、両者が認識対象の音声文の言語エントロピーと、認識に用いた言語モデルと認識対象文とのクロスエントロピーとを調整する働きを持つパラメータであることを、理論的に示した。さらに、音声認識実験により、用意された2つの言語モデルに対して、上記の基準に基づき与えた異なる2つの言語重みパラメータにより、ほぼ最適な認識性能が得られることが明らかとなり、理論の正当性が実験的に確認された。 単語間の接続性に基づき言語空間を探索するために、バイグラム行列の特異値分解に基づく、単語・文脈の線形部分空間表現を獲得した。具体的には、97年度に作成した、新聞記事データベースからバイグラム行列を作成し、ランク数を10〜3000程度まで変化させ、ランク数とバイグラムのエントロピーとの関係を調査し、300程度のランク(部分空間)で、単語・文脈双方の情報を効率的に表現可能なことを明らかにした。構成された部分空間が言語の意味を適切に表現していることは、部分空間上での単語・文脈クラスタリングが、エントロピーの削減に効率的であったことからも、確認された。具体的には、学習された部分空間上で、次元数を変化させ、空間の測度(ユークリッド距離)に基づき単語・文脈を独立にクラスタリングすることで、それぞれ最適なグループ分けを行なうことが可能なことを明らかにした。
|