研究課題/領域番号 |
21K03143
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分10040:実験心理学関連
|
研究機関 | 愛媛大学 |
研究代表者 |
十河 宏行 愛媛大学, 法文学部, 教授 (90359795)
|
研究期間 (年度) |
2021-04-01 – 2025-03-31
|
研究課題ステータス |
交付 (2023年度)
|
配分額 *注記 |
3,250千円 (直接経費: 2,500千円、間接経費: 750千円)
2023年度: 520千円 (直接経費: 400千円、間接経費: 120千円)
2022年度: 130千円 (直接経費: 100千円、間接経費: 30千円)
2021年度: 2,600千円 (直接経費: 2,000千円、間接経費: 600千円)
|
キーワード | eye tracking / web camera / head free / 眼球運動 / アイトラッカー / オープンソース / eye tracker / video-based eyetracking |
研究開始時の研究の概要 |
ビデオ画像に基づいた視線計測にはさまざまな応用が期待されるが、測定装置が高価であることや扱いが難しいことなどから普及していない。webカメラ等の低価格のカメラを用いた場合、レンズの性能や解像度などの問題から眼球運動測定に十分な画質が得られないことが多い。本研究では、画質が高い時には高精度で、画質が低い場合でも画質に応じた精度で眼球運動を測定するソフトウェアの開発を目指す。
|
研究実績の概要 |
本年度は昨年度に続いて3Dモデルを用いて作成した顔画像を用いた評価実験と、アプリケーションのユーザーインターフェスの向上に取り組んだ。評価実験では、従来観察距離100cmを仮定していたが、40cmの条件を追加して正確な顔の特徴点座標があれば回転角度0.02±1.82deg、平行移動0.83±2.82mm、日本人成人平均の特徴点座標を用いた場合でも回転角度-2.87±5.12deg、平行移動-1.84±5.27mmという精度を達成できることを確認した(3軸の平均、誤差は標準偏差)。また、虹彩位置検出精度の評価方法を改善し、矩形の4隅と中心の5点でキャリブレーションを行い、矩形内の17×5点に視線を向けるという手続きの実験を行った際の眼球運動をシミュレートした顔画像を作成した。これらの画像に対して開発したアプリケーションでキャリブレーションと視線測定を行った。その結果、虹彩検出にアンサンブル回帰木を用いる方法では約4度、セマンティックセグメンテーションを行うニューラルネットワークであるENetを用いる方法では約1.5度の誤差で視線方向を推定できることが示された。さらに、キャリブレーションを行った時の頭部位置から頭部を3軸で回転させてターゲットに視線を向けるという状況をシミュレートした顔画像を作成し、顔の移動が測定精度に及ぼす影響を評価した。ユーザーインターフェースの改善については、複数の動画ファイルに対して一括して処理するバッチモードおよびデータの出力機能を実装した。
|
現在までの達成度 (区分) |
現在までの達成度 (区分)
4: 遅れている
理由
本務校の業務負担の増加、および別プロジェクトのアプリケーション開発に時間をとられたことにより、本プロジェクトに割ける時間が計画より減少したことが最大の理由である。また、現在はEnetによる虹彩検出機能をTensorFlowにより実装しているが、本プロジェクトの成果であるアプリケーションの公開時にはTensorFlowを必要としないようリファクタリングすることを計画し、そのために新たなフレームワークの導入を検討したことも遅延の原因となっている。
|
今後の研究の推進方策 |
TensorFlowに依存しないリファクタリングは研究期間中に完了の見通しが立たないため、現状のアプリケーションで今年度までに行った評価実験の結果をまとめて発表を行う。論文の受理が研究期間終了に間に合わない場合でも、開発したアプリケーションはGitHub上で公開する。
|