研究概要 |
本研究は,ユーザとペット型ロボットとの接触情報、および環境から観測するユーザの行動情報を融合して,ユーザの感情推定を行うことを目的とする。 本年度の研究では、ロボットの複数の異なるセンサシステムの改善を行い、それに対する重み付き多次元の入出力マッピング機能の検証を行った。また他方、人のロボットを見た時の感情の分析など、絵に対する印象のソフトコンピューティング(ニューラルネット)や統計におけるクラスタリング法などを適用し,マッピングに適する方法の選定を行った。本年度の成果は次の3点である。 (1)ペットロボットのセンサリングシステムの改良および感情推定結果の表示システムの構築 (2)マトリクス上のセンサ信号解析により人の触行動の判別 (3)画像に対する人の安心、恐怖、嫌悪などの感情判別アルゴリズムの開発 まず、(1)では、ペットロボット頭部にマトリクス状の静電容量タッチセンサを装備した。また、胴内に加速度センサ、超音波センサ、および腕部に静電容量センサも装備し、それらのデータを収集するシステムを構築した。(2)では、頭部の複数センサのデータをパーセプトロンを利用して判別するシステムを構築し、叩く、押す、撫ぜる、の接触行動を判別する検証をおこなった。(3)では、人の安心、恐怖、嫌悪などの感情を判別するために、すでに人の感情結果の分かっている画像データを利用して、画像データのRGB色信号を色スペクトラム信号より、ニューラルネットワークを介して被験者の感情を推定するアルゴリズムの構築を行った。(2)については、まだ十分な判別結果が得られていないため、(1)での表示システムの完成には至っていない。今後は(1)で装備した他のセンサデータから推定した感情データを表示した時の人の行動データとの相関を検討する。(3)については、ペットロボット周辺に表示した画像データとの関連を検討する予定である。
|