研究概要 |
(1)講義中の教師の動作を解析し,教師の状態を推定する手法を構築した. 講義の自動撮影を行なう場合,教師の動作に応じて撮影対象を変化させ,それを学生が判読できるように撮影する必要がある.そのため,講義を行なう教師の動作推定はできるだけ正確に行う必要がある.これを,映像の処理と音声の処理との協調で行う手法を構築した. (2)教師の動作や教師の発話を推定することで,説明対象を抽出する手法を構築した. 講義を行う教師の動作を調査することで,映像から得られる特徴から教師が説明している対象を推定する手法を構築した.これは,統計的手法を応用している.また,複数の教師の講義中の発話を調査し,指示語などの位置を表す言葉の使用頻度を計測し,その言葉が使用された際の説明対象の位置(教師との相対位置)を調査した.この調査結果をもとにして,講義の状況を推定する上でキーとなる言葉の選定を行った.講義映像を観察して作成したルールに基づき,抽出された語彙と画像情報を協調利用することで,教師がどこを説明しているかを判断し,説明対象をより正確に推定する手法を構築した. (3)端末室などで遠隔講義を行う場合に,遠隔地の学生の動作を検出する手法の構築を行った. 学生1人に1台のPCが割り当ててあるという仮定の下で,遠隔地の学生の動作を検出する手法を構築した.教師が説明に使用するウィンドウと同じウィンドウを開いているか否かを判定するもと,学生の顔の向きを推定するものを組み合わせている. (4)遠隔地の学生の状況から実時間で学生の受講状況を推定する手法を構築した. 学生の受講状況を推定する際に,多くの学生はまじめに講義を受けるという仮定をし,うえで得られた学生の動作の学生相互間の関係から受講状況を推定する手法の構築を行った.
|