本研究では、これまでの個人研究で開発し、一定の実用性が確認された「障害児のための視覚支援情報自動配信システム」の機能をより向上させ、一般公開し運用するため、以下の行程で開発と実証を進めた。 ① これまでに開発した基本的な学習用動画データペース(「体の洗い方」「電車の乗り方」「靴ひもの結び方」「一緒に歌おう」「手を伸ばして自分の体に触れてみよう」)の拡充を行った(「地震が起きたら」「髪のしばり方」「コンビニで買い物しよう」「家族の呼び名を知ろう」など) ② 学習用動画データペースに、ARと3D技術を組み合わせ、更に子どもたちの興味関心を引きつけるコンテンツに改良した(例 : スクリーン手前に現れた人物がしゃがんで靴ひもを直そうとすると、あたかも人物の手足が巨大化したように靴と手のアップが拡大表示され、結び方をよりわかりやすく伝える「靴ひもの結び方」、スクリーンに映る電車の扉が開くと、そこから教師本人が出てきたり、生徒が乗ることを疑似体験できたりする「電車の乗り方」など)。これによって、これまで以上に驚きと分かりやすさのある映像コンテンツ集が完成した ③ 肢体不自由児の自発的な視線移動や体の動きを分析するために、探索行動評価シートを作成し、アセスメントを行った。これによって、有効な予備刺激の把握が簡単にできるようになった。 ④ ゲーム機用センサーを用いて、予備刺激に反応して自発的な動きを見せた子どもに対して、自動的に次の刺激となるコンテンツを提示できるようにした。これによって肢体不自由児の自発性や因果関係理解を進めることにつなげられた。 以上の方法で、子どもたちの反応に合わせつつ、視界を妨げないリアルタイム情報提示システムができあがった。また、これまで知的障害・発達障害のための物と考えられがちだった視覚支援情報を、肢体不自由児にも安全にわかりやすく提示できるようになった。
|