2020 Fiscal Year Annual Research Report
発達障がいグレーゾーン児童の自尊感情育成のための教育支援ロボット開発
Project/Area Number |
18H03321
|
Research Institution | Chubu University |
Principal Investigator |
中村 剛士 中部大学, 工学部, 教授 (90303693)
|
Co-Investigator(Kenkyū-buntansha) |
松原 茂樹 名古屋大学, 情報連携推進本部, 教授 (20303589)
吉川 大弘 鈴鹿医療科学大学, 医用工学部, 教授 (20303753)
永田 雅子 名古屋大学, 心の発達支援研究実践センター, 教授 (20467260)
ジメネス フェリックス 愛知県立大学, 情報科学部, 准教授 (60781507)
加納 政芳 中京大学, 工学部, 教授 (90387621)
|
Project Period (FY) |
2018-04-01 – 2022-03-31
|
Keywords | 発達障害 / 教育支援 / ロボット |
Outline of Annual Research Achievements |
本研究の目的は,発達障害グレーゾーン児童の自己肯定感・自尊感情育成を目的とした教育支援ロボットの研究開発を行うことである. 当該年度には,ユーザとロボットのインタラクションデータの一つである,ユーザの視線方向に注目した.研究成果としては,プロトタイプロボットに画像センサHVC-P2を導入し,ユーザの視線方向を推定する機能を実装し,その性能を評価したことが挙げられる.視線方向を正しく推定できれば,ユーザの集中度や学習状況等の把握に貢献すると考える.視線推定で得られる情報はカメラ平面座標(x, y) である. 画像センサの性能を調査したところ, 一点を注視しても座標が分散してしまったため, カメラ平面座標(x, y)をそのまま使うのではなく, 分類器を用いることでユーザがどの領域を見ているか判定するものとした.分類器としては,サポートベクターマシン(SVM), ランダムフォレスト(RF), ニューラルネットワーク(NN)をそれぞれ用いた.視線推定実験では,カメラ平面をロボット領域と非ロボット領域の2領域に分割し,その領域のいずれに注視しているか判断する2クラス分類問題として設定した.実験は大学生7名の協力を得て実施した.その7名から得られた視線データのうち6名分を訓練データ, 1人分をテストデータとして交差検証を行った.実験の結果,上述の分類器による大きな差異は見られず,概ね75%程度の正解率であった.ただし,画像センサより下方向の注視した際には正解率が下がる傾向が見られた.そのため,画像センサの設置位置や個数については検討が必要と思われる.
|
Current Status of Research Progress |
Current Status of Research Progress
3: Progress in research has been slightly delayed.
Reason
児童を被験者とした対面による実験を計画していたが,コロナ禍のため,対面実験ができなかったことが原因である.
|
Strategy for Future Research Activity |
児童を被験者とした対面による実験は実施困難なため,大学生を被験者としてロボットとのインタラクションデータとして,ユーザの注視領域の推定をする機能の実装と評価を行う.
|
Research Products
(1 results)