研究概要 |
本研究は日本手話と日本語の間の相互翻訳をコンピューターで行い,聴覚障害者のコミュニケーション環境を改善することを目標とするものである. 1.特定の手話ニュース通訳者が話す手話を採取し,その文法の分析を統語論,意味論の観点から実施し,多数の手話表現規則を導出した.この結果は来年度の研究において手話画像の規則合成に利用することを計画している. 2.システムに内蔵する手話語彙を増やし,日本語単語,日本語文(文節ごとの分かち書き)を入力して手話画像を自然な速度で出力する部分を完成させた.ただし日本語の分析は十分に行っていないため,時制や代名詞などの用法は完全ではなく,来年度の課題である. 3.ニュースおよび胃のレントゲン検査における受検者への指示を手話画像で表現し,聴覚障害者を被験者として評価実験を行った.特に検査指示用の手話文に関しては手話通訳者の表現を可能な限り手話画像に取り入れ,自然な手話が表示されるようにした.評価実験を研究室外で行う必要があるため,コンピュータ画面を利用できず,通訳者の手話に比較するとまだ理解できない部分が残っている. 4.手話文の分析に利用できるデータベースを構築した.このデータベースでは日本語単語を入力してKWIC検索を行うことができ,様々な文脈で手話がどのように表現されるかをビデオ画像で比較することができるほか,日本語と手話の語彙の対応関係を表示し,手話の学習にも利用できるように工夫した. 5.手話に用いられる手型のうち31種を対象としてニューラルネットワークと有限状態オートマトンによって手話単語を認識するシステムを試作した.現段階での手話単語認識率は70〜85%である.
|