2017 Fiscal Year Annual Research Report
Evaluation of care skills using wearable sensors
Project/Area Number |
17H01779
|
Research Institution | Kyoto University |
Principal Investigator |
中澤 篤志 京都大学, 情報学研究科, 准教授 (20362593)
|
Co-Investigator(Kenkyū-buntansha) |
本田 美和子 独立行政法人国立病院機構(東京医療センター臨床研究センター), その他部局等, 医長 (40575263)
吉川 左紀子 京都大学, こころの未来研究センター, 教授 (40158407)
|
Project Period (FY) |
2017-04-01 – 2021-03-31
|
Keywords | ユマニチュード |
Outline of Annual Research Achievements |
本年度は,認知症介護における介護スキルの定量化および介護効果の定量化を行うための基礎技術を開発した. ウェアラブルデバイスの開発では,Pupil Lab社の一人称カメラ撮影システムを用いて撮影された画像から,アイコンタクトを頑健に検出する手法を開発した.入力画像から対象者の両目部分を検出し,深層学習技術を用いてアイコンタクトか否かを判断する手法を提案し,有効性を検証した. 「介護者の肉体的・心理的負担軽減効果の計測」として、家族介護者を対象とした短時間の研修・自宅で利用できる教材の配布・フォローアップのためのワークショップを行い、その効果に関する検討を実施した。効果の評価指標は研修前、研修後1,3,6, 12ヶ月に介護者にはZarit介護負担スケール、介護を受ける高齢者にはBehave-ADを用いて行なった。家族の介護負担感、介護を受ける高齢者の認知症行動心理症状はいずれも研修前より低下し、1年後も持続していた。 心理学的研究として,非介護者の表情表出画像からその情動を推測するために必要な、日本人の表情表出の特性に関するデータを収集しFace Readerで解析した。1)表情の模倣、2)情動喚起シナリオによる意図的表出の2条件で撮像した、65名の研究協力者(男性21名、女性44名)の6基本情動(喜び、怒り、悲しみ、嫌悪、驚き、恐怖)の表情画像を分析したところ、1)表情模倣条件では6基本情動の典型表情が表出される、2)情動喚起シナリオ条件では、怒り、嫌悪、恐怖、悲しみで他の情動と区別できる明確な表情表出がみられない、の2点が明らかになった。
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
アイコンタクトについては,提案法を用いて一人称カメラから頑健に計測できることがわかった.従来法に比べ,目領域のみで良いので,介護中などでよく生じる,顔が部分的に隠されてしまうような状況においても動作させることが可能である. 「介護者の肉体的・心理的負担軽減効果の計測」としては,初年度にある程度の結果が得られたため,継続して研究を行う予定である. 心理学研究では,表情表出のパターンを解析したが,特定の表情については実シーンでは表出がされない(あるいは違いが見えない)ということもあきらかになった.この知見を踏まえながら,来年度は新たな研究の方向性を探る予定である.
|
Strategy for Future Research Activity |
アイコンタクトについては,一方で,現在は1フレームのみから推定を行っているため,これを複数フレーム使うことで精度を向上させることを検討している.具体的には,1フレームのみから推定していたものを,1フレームの出力をLSTM (Long Short Time Memory)で統合することで精度を上げることを考えている.また,介護現場での適用も並行して考えていく. 「介護者の肉体的・心理的負担軽減効果の計測」としては,初年度にある程度の結果が得られたため,継続して研究を行う予定である.現在は研修を行ってから1年目のみであるが,今後より長期になったときにどうなるかを継続観察する.
|
Research Products
(25 results)