研究分担者 |
松原 茂樹 名古屋大学, 情報連携推進本部, 教授 (20303589)
吉川 大弘 鈴鹿医療科学大学, 医用工学部, 教授 (20303753)
永田 雅子 名古屋大学, 心の発達支援研究実践センター, 教授 (20467260)
ジメネス フェリックス 愛知県立大学, 情報科学部, 准教授 (60781507)
加納 政芳 中京大学, 工学部, 教授 (90387621)
|
研究実績の概要 |
本研究の目的は,発達障害グレーゾーン児童の自己肯定感・自尊感情育成を目的とした教育支援ロボットの研究開発を行うことである. 当該年度には,ユーザとロボットのインタラクションデータの一つである,ユーザの視線方向に注目した.研究成果としては,プロトタイプロボットに画像センサHVC-P2を導入し,ユーザの視線方向を推定する機能を実装し,その性能を評価したことが挙げられる.視線方向を正しく推定できれば,ユーザの集中度や学習状況等の把握に貢献すると考える.視線推定で得られる情報はカメラ平面座標(x, y) である. 画像センサの性能を調査したところ, 一点を注視しても座標が分散してしまったため, カメラ平面座標(x, y)をそのまま使うのではなく, 分類器を用いることでユーザがどの領域を見ているか判定するものとした.分類器としては,サポートベクターマシン(SVM), ランダムフォレスト(RF), ニューラルネットワーク(NN)をそれぞれ用いた.視線推定実験では,カメラ平面をロボット領域と非ロボット領域の2領域に分割し,その領域のいずれに注視しているか判断する2クラス分類問題として設定した.実験は大学生7名の協力を得て実施した.その7名から得られた視線データのうち6名分を訓練データ, 1人分をテストデータとして交差検証を行った.実験の結果,上述の分類器による大きな差異は見られず,概ね75%程度の正解率であった.ただし,画像センサより下方向の注視した際には正解率が下がる傾向が見られた.そのため,画像センサの設置位置や個数については検討が必要と思われる.
|