本研究は,対話的モデルベース回想法の自然さを高め,実践的な有効性を検証するものである.モデルベース回想法は,記憶のモデルを活用したメンタルケアである.ユーザの保有する写真ライブラリに対して,心理学的な理論 (ACT-R) に即した写真の検索を行う.このプロセスを対話化するために,検索された写真の観察時に発生する語り(ストーリーテリング)から,検索のパラメータを調整する.これによってユーザの精神状態をモニタリングしつつ,ユーザの記憶想起(語り)をガイドする写真提示を実現する.このようなシステムは,本課題が属した対話知能学領域の掲げる「人と社会的に共生する対話システムのための行動決定モデル基盤技術の確立」という目標に沿ったものである.本研究ではこの領域の目標のもと,人間にとって自然な対話的モデルベース回想法の形態を検討した. 2023年度は,上記の目的を達成するために,対話的モデルベース回想法の構成要素である音声インタフェースと身体インタフェースの実験的検証を実施した.音声インタフェースは,写真提示中の発話に含まれる韻律や単語からユーザの感情状態を推定し,モデルパラメータに反映するものである.この機構に関するオンライン実験の結果,音声インタフェースを利用した対話的モデルベース回想法がユーザの自然な回想を引き出せることを確かめた。他方の身体インタフェースは,発話中に現れる単語イメージに基づき、ロボットにジェスチャーをさせるものである.2023年度はこの機構と心理学的な記憶のモデルであるACT-Rとの統合をテストした。提案機構では,身体に残存する単語のイメージが,記憶のモデルにおける単語の検索に影響する.これにより認知と身体のインタラクションを表現できる.この仕組みに基づくロボットの動作のデモンストレーションを,日本科学未来館などのフィールドにて展示し,テストした.
|