研究概要 |
全身にやわらかい触覚を備えることで,ロボットは安全に人と接触を伴うインタラクションができる.このような全身触覚は,ユーザからのフィードバックを認識するための新たな情報となるだけでなく,ロボットが全身の構造を知るために重要な鍵であるが,この2つの情報は同じ触覚センサの時空間情報として収集されるため,この分離が必要不可欠となる.本研究では,自身の動きに起因する触覚反応がある状況で,ユーザから接触されたことを識別することを課題とし,全身からの触覚センサ出力の時空間フィルタリングの手法およびリアルタイムに処理する実装手法を提案した.提案手法では,まず多数の空間フィルタで部分的に特徴抽出し,その出力を組み合わせる集団学習を行う.各フィルタは非線形の識別器であり,識別誤差を最小化もしくはモデルの尤度が最大化されるようにパラメータが最適化される.これらの出力は基本的な触覚情報の空間特徴量になっており,これらの特徴量をEcho State Networkの入力として時間ダイナミクスの学習を行い最終的な識別器の出力を得る.実際に,約200枚の触覚センサと柔軟な関節を持つロボットを用いて提案手法の有効性を検証したところ,実際に起こる自己起因の接触の状況でユーザの接触をリアルタイムに識別できることが示され,空間フィルタに比べて時空間フィルタでは識別器の性能が上昇したため,触覚において時間的な情報の変動の情報がユーザの接触の認識に重要であることが分かった.ただし,触覚の時間ダイナミクスは触られ方やロボットの状態によって著しく変動するため,学習データのバリエーションに応じたネットワークのサイズの変更や識別器の分割が必要なことが分かった.提案手法は触覚情報が自己起因か外部起因かを分けるだけでなく,任意の触覚のラベル情報の識別に適用可能な手法であり,全身触覚の汎用的な時空間フィルタリング手法として利用可能になった。
|