モデルベース回想法を対話化させる研究を進めた.モデルベース回想法ではユーザの保持する写真ライフログから意味的な構造を抽出する.そして,その構造を認知アーキテクチャによって構築された認知モデルに格納し,人間の記憶を模した仕組みによって写真をユーザに提示する.この仕組を対話化するとは,認知モデル上での記憶の検索に関わるパラメータを,ユーザ個人に調整していくことである. ユーザはシステムから提示される写真に対して自身の記憶に基づく語り(ストーリー)を生成する.生成されたストーリーに含まれるコンテンツや韻律情報をもとにユーザの心的状態を推定し,認知モデルのパラメータをチューニングする. 2021年度における検討は上記の仕組みのなかでも特に,音声発話に含まれる韻律特徴の抽出に注力した.モデルベース回想法に関する対人実験のデータをもとに,快い記憶が検索された発話データ,不快な記憶が検索された際の発話データを抽出した.また,実験時に設定されたモデルベース回想法における記憶検索のパラメータによって,これらのデータをラベルづけした.発話データに対し,OpenSMILEと呼ばれるオープンソースツールを適用することで韻律特徴を抽出し,上記のラベルに関する分類(快不快の分類,検索パラメータの分類)を実施し,6割から7割程度の正解率での抽出が可能であることが確認された. 2021年度は,上記の知見を根拠とし,対話的モデルベース回想法によるユーザパラメータの推定と感情誘導に関するフレームワークをまとめた.
|