研究概要 |
複数センサからの情報を空間的・時間的に統合し,インタラクションパターンの分析をするためのソフトウェア環境のプロトタイプを構築した.複数センサを使って共用書棚周辺の会話シーンを抽出する技術を開発した.人間の嘘を職業的に嘘を見破っている人をかなり上回る判別率で判別できるシステムを構築した.適度にゆらぎを含んでいる対象に強く生物らしさを感じることを解明した.身体表現能力の低いロボットでもモーションキューを使って空間内での行動に関するコミュニケーションを有効に行えることを明らかにした.人間・手動操作ロボットのインタラクションのプロトコル分析のための実験環境の構築と,人間・非適応ロボットのインタラクションにおける人間の行動観察を行い,知見を得た.環境や人間の状態を認識するための認識モジュールと,さりげないインタラクションによって人間を誘導する人工エージェントが協調することによって作業支援に必要な認識の精度を高める作業支援環境と人間の協調モデルを提案した.システムがユーザの内部状態を推定しながら支援を行うマイクロインタラクションによる被支援者の状態推定方法を開発した.複数の並列的な意図の強度をユーザからの非言語入力に応じて変化させることにより,ユーザとの間で相互意図の確立と管理を行うモデルを開発した,仮想アシスタントという概念を導入し,そのモデル化とプロトタイプを作成した.会議の参加者の状況を観測し,リアルタイムに記録し,それを参加者に提示することによって,会議を活性化し,良い議事録につなげるためのモデル構築と一部実装を行った.会話量子化と再利用方式を2つのドメインにおいて適用できるよう詳細化した.
|