研究概要 |
多人数インタラクションから得られるマルチモーダルデータを解析して会話構造を抽出する手法(インタラクションマイニング)を開発した.カメにリーチングを行う条件(生物条件)とロボットにリーチングを行う条件(非生物条件)の二条件でのリーチング行動に伴う事象関連電位を比較し,事象関連電位を用いてアニマシー知覚の指標を確立できる可能性を示唆する結果を得た.皮膚抵抗,脈波,呼吸速度に対する信号処理と統計処理を組み合わせてパートナーの自然な挙動と不自然な挙動を区別するための回帰モデル設計を行った結果,92.5%の精度で自然さと不自然さを識別できることが分かった.筋電を用いたユーザインタフェース(EMGUI)を構築するための基本部品の設計とそこで用いる動作認識手法を提案した.人とエージェントの協調作業のタスクを設計し,実験環境を開発し,提案した条件によってエージェントの相互適応現象が誘発されることを明らかにした.ユーザの状態に適応した支援を行うためのモデル"Interaction Reproducing Model"を提案した.提案モデルでインタラクションパターンを66%の精度で正しく認識することができた.会合での議論における人間同士の意味的なインタラクションを推定するためにマルチモーダルなアプローチを提案した.SVM,ベイジアンネット,ナイーヴベイズ,決定木が人間同士のインタラクションをどれだけよくとらえられるか比較評価を行った.没入型インタラクション環境における人間の身体動作を非接触で取得する手法を開発した.開発した計測手法によって操作者の身体動作をリアルタイムに自動認識することで,同じ動作をロボットが再現するロボットWOZシステムを構築した.
|