Research Abstract |
本研究では,人間とロボットの円滑なコミュニケーションの実現を目的とし,過去の記憶を参照しそのときの気分に合った行動を実現するための記憶モデルの構築と,個々の人間の特徴量を表出可能な顔ロボットの開発を目指している. まず,記憶モデルに関しては,ロボット自身が新しい情報を取得できるよう,記憶の「コード化」・「保存」「想起」の過程のうち,コード化モデルを構築した.人間は,入力された感覚刺激の中でも,意識の向いた刺激を記憶としてコード化し保存する.従って,もっとも意識が向いている刺激に対する視覚・聴覚・触覚・嗅覚および気分の快成分の多次元情報を2次元化し,さらにSOMを用いてネットワークパターン化することでコード化を実現した.これに,2004年度構築した想起モデルを組み合わせることにより,ロボットが未知の刺激情報を取得し,同じ刺激に対しても,気分に従って様々な行動を示すことが可能となった. 一方,顔ロボットに関しては,輪郭駆動ユニットの開発,顔部分駆動ユニットの開発,最小顔マスクの作成を行い,計56自由度の顔ロボットWD-2(Waseda Docomo face robot No.2)を開発した.輪郭駆動ユニットおよび顔部分駆動ユニットにはDCモータを用い,それぞれ10自由度スライダータンク機構,17個の2または3自由度のねじ送り機構となっている.また,21〜49歳の男女合計60人の顔形状データベースを構築することにより,押し出しのみで変形可能な最小顔を作成し,皺の発生を防ぐことに成功した.この顔マスク上の27駆動点を,接合部材をとりつけた駆動ユニットで駆動することにより,任意の人の顔を表出可能とした.
|