2022 Fiscal Year Annual Research Report
High Recallable Gesture Sets and Detection System for Establishing Gaze-based Manipulation
Project/Area Number |
21J10301
|
Research Institution | University of Tsukuba |
Research Fellow |
礒本 俊弥 筑波大学, 理工情報生命学術院, 特別研究員(DC2)
|
Project Period (FY) |
2021-04-28 – 2023-03-31
|
Keywords | ヒューマンコンピュータインタラクション / 視線入力 / 視線インタフェース / アイトラッキング |
Outline of Annual Research Achievements |
ジェスチャセットの1つとして,眼を留めることをジェスチャとした操作に関して研究を行った.この眼を留めるジェスチャは,視線に基づく操作において「凝視」を用いた操作と呼ばれており,マウスでの操作における左クリック操作に該当する.凝視を用いた操作では,例えば,ある対象を400ms以上見続けた時に,その対象への操作を行うことができる.この例では400msとしているが,視線に基づく操作に関する研究分野全体として,適切な値(時間)は決まっておらず,値によってはユーザに対して不快感を与えること,操作の難しさに影響を与えることがわかっている.
昨年度に引き続き,この適切な値を,視覚情報を人間がどのように処理し行動に繋げるかを表すモデルであるModel Human Processor(以降MHP)を用いて導いた.今年度の研究では,選択する対象(文字,画像,色)毎に人間の意思決定プロセスが異なる点に着目しそれぞれに適切な時間を導くことを目標とした.実験では,実際に実験参加者に対象を選択するタスクを行ってもらい,その際の目の動き(特に注視の回数)および選択に要する時間を収集した.収集した目の動きおよび時間をもとに,その対象を事前に注視した回数に応じて,凝視時間を動的に導くことができるモデルを作製した.これにより,既に認知している対象へは素早く,知らない対象は理解した上で,その対象を選択可能な時間を導出できるようになった.
本研究を通じて,視線インタフェースにおける基礎となる発見ができ,この点が評価され国際論文誌ACM PACM HCIに採録された.また同内容を国際会議ETRA2023にて口頭発表を行った.
|
Research Progress Status |
令和4年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和4年度が最終年度であるため、記入しない。
|