研究課題/領域番号 |
21K12801
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
審査区分 |
小区分90150:医療福祉工学関連
|
研究機関 | 東京電機大学 |
研究代表者 |
阿部 清彦 東京電機大学, システムデザイン工学部, 教授 (40408646)
|
研究分担者 |
佐藤 寛修 関東学院大学, 理工学部, 助手 (90813741)
松野 省吾 群馬大学, 情報学部, 助教 (60836245)
|
研究期間 (年度) |
2021-04-01 – 2024-03-31
|
研究課題ステータス |
完了 (2023年度)
|
配分額 *注記 |
3,770千円 (直接経費: 2,900千円、間接経費: 870千円)
2023年度: 1,170千円 (直接経費: 900千円、間接経費: 270千円)
2022年度: 1,040千円 (直接経費: 800千円、間接経費: 240千円)
2021年度: 1,560千円 (直接経費: 1,200千円、間接経費: 360千円)
|
キーワード | 視線入力 / 畳込みニューラルネットワーク / Vision Transformer / 3次元畳込みニューラルネットワーク / 視線 / 瞬目 / 入力インタフェース / 畳み込みニューラルネットワーク / 3D-CNN / 瞬目入力 / 再帰型ニューラルネットワーク |
研究開始時の研究の概要 |
視線入力は眼球やまぶた以外の運動を必要としないので、運動機能を著しく制限されている人たちも使用が可能であり、これを利用したコミュニケーション支援システムが多く提案されている。本研究では、ディープラーニングを活用しノートパソコン1台から構成される視線入力システムを開発する。このシステムは従来のシステムとは異なり、システム使用前にキャリブレーション(較正、調整)の必要がなく、専門的な知識や技術がないユーザでも利用できるように工夫されている。
|
研究実績の概要 |
ユーザの視線や瞬目(瞬き)の情報によりパソコンなどを操作する視線入力は、重度肢体不自由者など一般的な入力インタフェースの使用が困難な人たちのコミュニケーション支援に使われる。従来の視線入力インタフェースの多くは、使用前にユーザごとにキャリブレーション(較正)を行なう必要があり、使用に煩雑さがあった。本研究では、畳み込みニューラルネットワーク(CNN)やVision Transformer(ViT)と言ったディープランニングによる画像識別技術を利用することにより、ノートパソコンのインカメラで撮影されたユーザの眼球近傍画像から視線と瞬目の情報をリアルタイムで捉え、パソコンを操作する新しい入力インタフェースを開発してきた。この視線入力インタフェースは、キャリブレーションを必要としないという大きな特長がある。 2023年度の研究では、今までに開発してきたCNNによる手法とともにViTによる新たな視線識別法を開発し、その識別精度の向上を実現した。また、CNNを時間軸方向に拡張した3次元畳込みニューラルネットワーク(3D CNN)を用いて意識的な瞬目を識別し、視線入力インタフェースの入力に応用する研究を行ってきたが、この際に計測結果の最頻値を用いることにより識別精度を向上させる手法を開発した。 これらの技術は先進的なものではあるが、その分、使用するコンピュータの計算コストが大きくなることが判明し、研究代表者らは学習データを増加することでCNNによる視線識別モデルを実用的なレベルまで改良し、また瞬目の持続時間を用いて意識的な瞬目を識別することにより、計算コストの大幅な削減を実現した。これらを組み合わせ、ノートパソコン一台のみで日本語入力とWeb検索を行うことのできる、キャリブレーションフリーな視線入力インタフェースを完成させることができた。
|