本研究は、eラーニングにおける記憶の強化、意味理解、学習の促進、学習効果の改善を目指し、ヒューマンフィードバック・インタフェースの有力な一形態として視線、手書き、表情など個人特徴を有するリアルなマルチモーダル・インタフェースの実現を目的とする。21年度は上記の目的を達成するために、主に、効果的なフィードバックを提供する際、必要な要素の分析と機能の開発を行った。 22年度は、前年度の研究成果を踏まえて、提案した多感覚フィードバック・インタフェースの実現とその有効性を検証した。具体的には、(1)文字、音声、動画、手書き、視線など多種情報を抽出・統合し、マルチモーダルフィードバックのデータ構造の定義及び多感覚フィードバック・インタフェースのプロトタイプ・システムの開発を行った。視線検出装置(nac:EMR-8)を利用し、講師の視線情報を抽出し、視線移動の軌迹、講師のビデオ、スライドおよび手書きメモを統合させたWeb教材を開発した。その結果、リアルなマルチモーダル・インタフェースを通して、非言語情報の提示、学習意欲の向上が示唆された。(2)また、開発されたコンテンツと一般的なeラーニングコンテンツの比較実験を行い、アンケートや小テストを実施し、量的、質的データの双方を用いた評価を行った。その結果、多感覚統合フィードバック・インタフェースありのコンテンツは多感覚統合フィードバック・インタフェースなしのコンテンツより、教材への視線集中、教師の存在感の向上、意味理解の促進、学習効果の改善が示唆された。以上の研究成果を関連する国内の学会、国際会議にて発表した。
|