Research Abstract |
被支援者の状態,作業状況の認識:作業状況の推定とその結果に基づく適切な支援提示を行うためには,ユーザがどのような作業段階をどのように進めているかを知る必要がある.本研究では,机上作業を対象として,ユーザの手の検出,手に持った物体(把持物体)の追跡,認識,形状や体積の計測,変化の検出等の計測・認識処理に取り組み,新しい手法を提案した.その結果,物体や背景に関する予備知識が無い場合でも比較的安定にこれらの計測・認識が行えることを確認した. 映像コンテンツを用いた教示機能:作業の支援手段として,前もって記録されインデックスの付けられた映像を用いる.次の操作説明,間違いの修正,将来的な選択肢の提示など,種々の情報をわかりやすく提示する.そのために,作業段階に合わせた情報提示を実装し,その効果を確かめた. エージェントの振る舞いと仮想アシスタントとしての動作設計:仮想アシスタントとして,CGエージェントやロボット等を利用する際の振る舞いとユーザに対する影響について調査を行った.これにより,人工エージェントのコミュニケーションモデルでメタ表示の概念を取り入れる重要性やエージェントが人間の心象を意図的にコントロールできる可能性を示した.また,実際にペットロボットの動作を設計し,作業支援システムの内部状態を呈示したり,状況認識のためにロボットの動作を援用することを試み,その可能性を確認した. 教示・説明用コンテンツ取得のための自動映像取得システムと映像編集技術:我々の研究グループでは,従来から映像の自動撮影の問題を扱ってきたが,教示コンテンツ取得のための自動撮影インタフェースとして種々の方法を試し,有効性の確認を行った.また,対話シーンの撮影やその自動編集など,将来的に幅広いコンテンツを扱うためのパイロット的なシステム構築とその有効性の確認を行った.
|