研究課題/領域番号 |
17K04966
|
研究機関 | 熊本高等専門学校 |
研究代表者 |
博多 哲也 熊本高等専門学校, 電子情報システム工学系CIグループ, 教授 (60237899)
|
研究分担者 |
柴里 弘毅 熊本高等専門学校, 電子情報システム工学系CIグループ, 教授 (60259968)
加藤 達也 熊本高等専門学校, 電子情報システム工学系CIグループ, 助教 (10707970)
|
研究期間 (年度) |
2017-04-01 – 2020-03-31
|
キーワード | 重度重複障害 / 特別支援教育 / 社会福祉関係 / 人間福祉工学 / アシスティブテクノロジー |
研究実績の概要 |
特別支援学校では,障害のある児童生徒の自立や社会参加に向けた主体的な取り組みを支援しており,一人一人の持てる力に配慮した教育が行われている.特に,知的障害,肢体不自由などの重複障害がある児童生徒の課程では,自立した生活に繋げるために社会との関わりを充実させることが望まれている.しかし,意思伝達の手段として目の動きを用いている児童生徒の場合は自発的な意思表示が難しく,能動的な活動を支援する仕組みが十分には構築されていない.同様の症状の児童・生徒は全国におり,視線を利用した意思伝達支援機器において,特殊センサ等を必要としないAAC (Augmentative and Alternative Communication) 技術の確立が望まれている.本研究では,スマートフォンやタブレットで動作させることを目的とした単眼カメラを用いた視線方向の推定手法を提案する.まず,FaceTrackerにより,撮影された顔画像の中から複数の顔特徴点を用いて,顔姿勢を推定する.推定アルゴリズムとして,円柱モデルによる方法と,顔特徴を学習する方法の2通りを考案した.顔の特徴を学習する手法においては,CNN(Convolutional Neural Network)を採用した.利用者の意思表示用にモニタを提示し,モニタ内の画面を分割してアイコン提示する.提示されたアイコンを注視することで使用者は意思表示を行うことが可能になる.これを実現するために,視線領域推定アルゴリズムを考案した.提案手法では,意思表示に必要な分解能を維持しつつ,キャリブレーションをすることなく視線領域の推定が可能になった.
|