Research Abstract |
対話的に映像提示のできるメディアを実現するために,コンテンツ取得,コンテンツ提示をサポートする「仮想アシスタント」機能を実現し,その有効性を検証することが本研究の目的である.仮想アシスタントとは,物理的な実体を伴うロボット(パペット),又は,モニタやスクリーンに投影されたような電子的なエージェントであり,映像コンテンツの撮影段階,及び,ユーザがそれを利用する段階の両方で,説明者や視聴者と対話を行う機能を持つ. 本年度は,研究期間の第一年目として以下の項目について研究を行い,順調に成果が得られた. (a)ロボットによる仮想アシスタントを実現するため,ロボットの手足を人間の手足の動作によって動かす制御部分と,それによって人間に教示を行うための環境設定について検討し,試作を始めた.現在,遠隔地の教師がロボットを介して生徒に作業を教えるための環境構築を行っている段階である. (b)作業を支援・教示するためのマルチメディアシステムの基礎的な部分について設計した.この枠組みでは,システムはユーザを観察し,必要なときに必要な支援をする.すなわち,ユーザの状況を推定し,状況に応じて教示映像を提示することによって適切なアドバイスを行うものである.今年度は,ユーザの作業状況の認識や作業教示映像(シナリオ)とのアライメントについて研究を行い,この手法の可能性を簡単な実験により示した. (c)対話的に映像を提示するための手法として,視聴者の注目を集めるために話者が行う行動(注目喚起行動)に基づいてショットを提示する映像編集モデルの妥当性を検証した.具体的には,(a)テレビ番組における注目喚起行動とショット切換えの共起性,(b)提案手法を用いて編集した映像とテレビ番組どおりに編集した映像を比較する主観評価実験,(c)数人の被験者に本システムを使用してもらったその使用感の評価等を行った.これにより,話者の協力によって編集するという枠組みが実用可能であることを確認した.
|