研究課題/領域番号 |
21K03143
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分10040:実験心理学関連
|
研究機関 | 愛媛大学 |
研究代表者 |
十河 宏行 愛媛大学, 法文学部, 教授 (90359795)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
研究課題ステータス |
交付 (2022年度)
|
配分額 *注記 |
3,250千円 (直接経費: 2,500千円、間接経費: 750千円)
2023年度: 520千円 (直接経費: 400千円、間接経費: 120千円)
2022年度: 130千円 (直接経費: 100千円、間接経費: 30千円)
2021年度: 2,600千円 (直接経費: 2,000千円、間接経費: 600千円)
|
キーワード | 眼球運動 / アイトラッカー / オープンソース / eye tracker / web camera / eye tracking / video-based eyetracking |
研究開始時の研究の概要 |
ビデオ画像に基づいた視線計測にはさまざまな応用が期待されるが、測定装置が高価であることや扱いが難しいことなどから普及していない。webカメラ等の低価格のカメラを用いた場合、レンズの性能や解像度などの問題から眼球運動測定に十分な画質が得られないことが多い。本研究では、画質が高い時には高精度で、画質が低い場合でも画質に応じた精度で眼球運動を測定するソフトウェアの開発を目指す。
|
研究実績の概要 |
本年度の主要な成果は3つある。まず、すでに録画済みの動画から虹彩を検出して眼球運動を記録する「オフラインモード」を実装し、オフラインモードを実際に利用するために必要なキャリブレーションツールを作成した。このオフラインモードにより、動画の1フレームあたりの時間を大きく超える低速な光彩検出アルゴリズムを採用可能となったほか、タブレット機などの処理速度が十分でない端末による実験に対応可能となった。第2に、高速なセマンティックセグメンテーションネットワークであるENetを用いた虹彩検出コードを導入した。これにより虹彩検出精度が向上した。ENetによる検出はGPUによる支援のないIntel Core i7-11700搭載Window PCにおいて1フレームに数百ミリ秒が必要であり、オフラインモードでの使用を想定している。第3に、FaceGenを用いて顔の3Dモデルを用意し、顔モデルを左右方向にそれぞれ45度、上下方向にそれぞれ15度まで回転させた画像を作成して顔方向検出精度を評価する実験をおこなった。その結果、左右方向にそれぞれ20度の回転範囲内において、顔の回転方向を数度程度の誤差で推定可能なことが示された。左右方向にそれぞれ20度を超える回転範囲では、顔の特徴点の検出精度が低下し、その結果として十数度に及ぶ大きな誤差が生じることが示された。顔の3Dモデルを使用するこの評価方法は正確に顔方向を設定できる点において実際の人物の顔画像を使用するより優れており、本プロジェクトではこの方法を引き続き採用することとした。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
3: やや遅れている
理由
性能評価実験に使用する顔画像および目画像の提供者が集まっておらず、これらの画像を使用して行う計画であった作業が進められない状態にある。「研究実績の概要」で述べた顔の3Dモデルを用いる方法が頭部姿勢の測定精度の評価に非常に有効であったため、虹彩検出精度の評価および視線方向の測定精度精度の評価もこちらの方法に切り替えて研究を進めることとした。これらの評価実験のためのコードを新たに作成する必要があるため研究が遅れている。
|
今後の研究の推進方策 |
顔の3Dモデルを用いた評価方法により、顔の位置の測定精度および虹彩位置の測定精度を評価する実験を行う。dlibのアンサンブル回帰木による特徴点検出を利用して、ENetより高速な光彩検出アルゴリズムを実装し、測定精度評価実験をおこなう。開発したコードをGitHub上で公開し、実際の利用者からのフィードバックを受けて改善点を検討する。測定精度評価実験の結果を学会発表し、論文執筆に取り組む。
|