High Recallable Gesture Sets and Detection System for Establishing Gaze-based Manipulation
Project/Area Number |
21J10301
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 国内 |
Review Section |
Basic Section 61020:Human interface and interaction-related
|
Research Institution | University of Tsukuba |
Principal Investigator |
礒本 俊弥 (2021) 筑波大学, 理工情報生命学術院, 特別研究員(DC2)
|
Research Fellow |
礒本 俊弥 (2022) 筑波大学, 理工情報生命学術院, 特別研究員(DC2)
|
Project Period (FY) |
2021-04-28 – 2023-03-31
|
Project Status |
Completed (Fiscal Year 2022)
|
Budget Amount *help |
¥1,500,000 (Direct Cost: ¥1,500,000)
Fiscal Year 2022: ¥700,000 (Direct Cost: ¥700,000)
Fiscal Year 2021: ¥800,000 (Direct Cost: ¥800,000)
|
Keywords | ヒューマンコンピュータインタラクション / 視線入力 / 視線インタフェース / アイトラッキング / ユーザビリティ / ユーザインタフェース / インタラクション / 認知 |
Outline of Research at the Start |
視線入力の1つである,特定の形に視線を移動させることによるジェスチャ入力(コピーやペースト,次のページに進むといった操作)は,操作からジェスチャの想起が難しいことおよび,意図せず操作が生じるという課題がある.本研究では,1)ある入力に対してどのようジェスチャをユーザが好むかの聞き取り調査および,2)日常的な視線の移動とジェスチャの形の比較を通じて,想起性に優れたジェスチャセットの決定とその認識システムの構築を行う.
|
Outline of Annual Research Achievements |
ジェスチャセットの1つとして,眼を留めることをジェスチャとした操作に関して研究を行った.この眼を留めるジェスチャは,視線に基づく操作において「凝視」を用いた操作と呼ばれており,マウスでの操作における左クリック操作に該当する.凝視を用いた操作では,例えば,ある対象を400ms以上見続けた時に,その対象への操作を行うことができる.この例では400msとしているが,視線に基づく操作に関する研究分野全体として,適切な値(時間)は決まっておらず,値によってはユーザに対して不快感を与えること,操作の難しさに影響を与えることがわかっている.
昨年度に引き続き,この適切な値を,視覚情報を人間がどのように処理し行動に繋げるかを表すモデルであるModel Human Processor(以降MHP)を用いて導いた.今年度の研究では,選択する対象(文字,画像,色)毎に人間の意思決定プロセスが異なる点に着目しそれぞれに適切な時間を導くことを目標とした.実験では,実際に実験参加者に対象を選択するタスクを行ってもらい,その際の目の動き(特に注視の回数)および選択に要する時間を収集した.収集した目の動きおよび時間をもとに,その対象を事前に注視した回数に応じて,凝視時間を動的に導くことができるモデルを作製した.これにより,既に認知している対象へは素早く,知らない対象は理解した上で,その対象を選択可能な時間を導出できるようになった.
本研究を通じて,視線インタフェースにおける基礎となる発見ができ,この点が評価され国際論文誌ACM PACM HCIに採録された.また同内容を国際会議ETRA2023にて口頭発表を行った.
|
Research Progress Status |
令和4年度が最終年度であるため、記入しない。
|
Strategy for Future Research Activity |
令和4年度が最終年度であるため、記入しない。
|
Report
(2 results)
Research Products
(2 results)