研究課題/領域番号 |
14208028
|
研究種目 |
基盤研究(A)
|
配分区分 | 補助金 |
応募区分 | 一般 |
研究分野 |
知能情報学
|
研究機関 | 東京大学 |
研究代表者 |
伊福部 達 東京大学, 先端科学技術研究センター, 教授 (70002102)
|
研究分担者 |
廣瀬 通孝 東京大学, 先端科学技術研究センター, 教授 (40156716)
福島 智 東京大学, 先端科学技術研究センター, 助教授 (50285079)
廣田 光一 東京大学, 先端科学技術研究センター, 助教授 (80273332)
井野 秀一 東京大学, 先端科学技術研究センター, 助教授 (70250511)
似鳥 寧信 (株)ビー・ユー・ジー総合研究所, 開発本部長
|
研究期間 (年度) |
2002 – 2004
|
キーワード | バリアフリー / ノンバーバル情報 / 聴覚障害者 / 自動字幕システム / 表情 / 視覚障害者 / スクリーンリーダ / 触覚情報 |
研究概要 |
本課題では、情報バリアフリー支援機器、とくに言語情報を伝達させる支援機器を設計する上で、テキスト以外のノンバーバル情報をどのように利用すべきかを調べた。具体的には、 1.視覚障害者支援のために、文書情報を合成音声と触覚刺激に変換する「触覚ジョグダイアル」において合成音声の最適な提示速度および伝達すべきリッチテキスト(文字の大きさ、色、字体など)とその触覚提示方法を明らかにした。 2.聴覚障害者のために、話者の音声情報をコンピュータの自動認識により文字化する「音声自動字幕システム」において、話者の顔や口の動きをどのように提示すれば言語理解を助けるかを明らかにした。得られた成果を以下に示す。 「触覚ジョグダイアル」においては、 (1)視覚障害者の合成音声の聞き取り速度は健常者の約2.6倍速かったことから、合成音声の提示速度を利用者が3倍程度の速さまで可変できるようにすべきこと。 (2)文書構造を理解する上で必要なリッチテキストは7種類あることを示し、それらに対応する触覚パターンを特定した。 (3)話速をジョグダイアルで可変でき、その上に搭載した指先提示の触覚ディスプレイを併用することで、文書の獲得速度が2〜3倍になることが分かった。 「音声自動字幕システム」においては、 (1)ノンバーバル情報である話者の「顔」、「口元」を音声字幕に重ねて表示したときの最適なタイミングが明確にされた。 (2)顔情報よりも、口元の動きが文の理解を助ける上で大きく貢献し、特に字幕が現れてから数秒後に口元が現れたときが最も理解度が高まることが分かった。 (3)国際学会等を通じて約30回にわたり試験運用し、聴覚障害者の支援や国際会議等での通訳システムとして、ビジネスモデルを構築するとともに産業化する道筋を作ることができた。 以上、言語情報を伝達する2つの情報バリアフリー支援機器を例にとって、リッチテキストや顔画像などのノンバーバル情報が言語理解に果たす役割とその最適な提示方法を明らかにし、これらの支援機器を誰もが利用できるようにユニバーサル化する方法を提案した。
|