研究課題/領域番号 |
20K12746
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分90150:医療福祉工学関連
|
研究機関 | 大阪電気通信大学 |
研究代表者 |
疋田 真一 大阪電気通信大学, 工学部, 准教授 (00347618)
|
研究期間 (年度) |
2020-04-01 – 2023-03-31
|
研究課題ステータス |
完了 (2022年度)
|
配分額 *注記 |
4,420千円 (直接経費: 3,400千円、間接経費: 1,020千円)
2022年度: 1,300千円 (直接経費: 1,000千円、間接経費: 300千円)
2021年度: 1,690千円 (直接経費: 1,300千円、間接経費: 390千円)
2020年度: 1,430千円 (直接経費: 1,100千円、間接経費: 330千円)
|
キーワード | 眼球運動 / カメラ / インタフェース / ハンズフリー / 視線 |
研究開始時の研究の概要 |
病気や怪我で手足が不自由になった運動弱者にとって,介助なしで健常者のように自立した日常生活を営むことは難しい.そこで,本研究では,運動弱者の能動的な活動を支援するため,左右両眼の眼球側面画像を用いて3次元の視線ジェスチャ(左右・上下・前後方向の目の動きのパターン)を識別し,介護ロボットやPCのような情報機器に対して目で合図を送ることにより多様な意思伝達を可能にするインタフェースを開発する.
|
研究成果の概要 |
本研究では,左右両眼の眼球側面画像を用いて視線ジェスチャを識別し,介護ロボットやPCのような情報機器に対して目による意思伝達を可能にするメガネ型インタフェースの開発に取り組んだ.最初に,メガネフレームの左右のテンプル部にカメラを固定した眼球撮影用メガネを試作した.次に,眼球側面画像から黒目(虹彩)の位置を検出する方法を開発した.次に,できるだけシンプルな視線ジェスチャで多数の入力を実現するという利便性の観点から,3種類の基本ジェスチャと2種類の補助ジェスチャを組み合わせた視線入力方法を提案した.最後に,視線ジェスチャの識別実験をおこない,提案法の有効性を確認した.
|
研究成果の学術的意義や社会的意義 |
本研究では,2台の眼球撮影用カメラと市販のメガネフレームを用いて目による合図で意思伝達を可能にするメガネ型インタフェースを提案し,その基盤となる技術を開発した.病気や怪我で手足が不自由になった運動弱者(ユーザ)にとって,介助なしで健常者のように自立した日常生活を営むことは困難である.提案インタフェースによって,ユーザが最小限の介助で携帯情報端末やPCを利用したり,介護ロボットに自分の意思を伝達できるようになれば,介助者およびユーザ両者の大幅な生活の質(Quality of Life)の向上,さらにはユーザの社会復帰促進につながると期待される.
|