研究概要 |
Web教育で重要となる“なりすまし”防止のための個人認証については、平成22,23年度でほぼ出来上がったので、平成24年度は理解度予測のための基礎研究を前年度に引き続いて行った。前年度までの結果から、脳血流が集中度と相関すること、表情や動作においては、理解できないときには口や首を動かすなどの余計な動きが多くなること、特に瞬きの回数が増加することが分かった。これから、外見からの理解度判断の可能性を得たので、平成24年度は、特に最終年であるので一応の成果をあげられるように、瞬き頻度の測定の高精度化を重点的に検討した。 開発には平成23年度のシステム(C++とOpenCVを用いて、液晶ディスプレイの下端に取り付けたUBSカメラから顔画像を取り込み(30fps)、顔領域をOpenCVの顔検出器で検出して目の存在領域を絞り込み、目検出器を用いて右目を抽出、その領域での濃度差分から目が閉じているかを判定)をベースとした。ここで、眼鏡への環境光の映り込みが大きく影響するため、これにも対応できる瞬き検出の方法を検討した。偏光フィルタを用いたが、完全に環境光を取り去ることはできず、かえって画像全体の明度を落とす結果となって、使えないことが分かった。また、なるべく通常の環境で実現できる方策を検討する必要性もあり、特殊な条件付けは避けることにした。この結果、色空間の赤領域に重点を置くことでかなり改善できることが判明した。 さらに、理解度を測定できるようにするため、喜びの感情を検出できる瞳孔径の変化を測定できるように検討したが、現行のUSBカメラの位置設定では瞳孔画像が小さすぎること、まつ毛が邪魔をすること、環境光が瞳孔とオーバーラップして邪魔になることなどが判明した。これから更なる検討を加えて行く必要がある。
|