研究概要 |
本研究は日本手話と日本語の間の相互翻訳をコンピュータで行い,聴覚障害者のコミュニケーション環境を改善することを目標とするものである. 1.特定の手話ニュース通訳者が話す手話をコーパスとして手話文データベースを構築した.またこのデータベースを用いて,手話文法のうち,動詞の語形変化,指差しの機能,時制とモダリティの用法について分析を行った.別に手話に伴う非手指動作から眼の開閉,頭部の運動,表情を選び,これらと手話単語,文脈との関係の分析を行い,これらが一定の意味情報,統語情報を担っていることを明らかにした. 2.格フレームによって表現された日本語を手話の格フレームに変換するとともに,これを手話アニメーション(手話画像)の規則合成に必要なリスト表現に変換するシステムを開発した.またこの変換に必要となる手話辞書の作成を行った. 3.2.で得られる情報に基づいて手話を合成し,これまで導入されていなかった手話文法の一部に合致した手話を生成することに成功した.さらに内蔵する手話語彙を増やした. 4.手話画像に用いる人物モデルを認識しやすく改良した.また人間の行う手話動作の速度変化を計測し,それを手話画像の合成に速度パターンとして取り入れ,自然な手話表現を可能にした. 5.手話画像で表現できる複雑な手の軌跡は特定平面内に限定されていたが,ホッピング,ジグザグなどを3次元空間の任意の平面上で表現可能にした. 6.ニュースおよび胃のレントゲン検査における受検者への指示を手話画像を,実際の手話通訳者の手話を参考にして改良した.現在実験による評価を実施中である.
|