研究概要 |
申請者達は,使用する人間あるいはその系を観る人間が,「創造性」や「感受性」を刺激されるようなシステムの制作およびそのために必要な基礎的な「感じ方」を科学してゆくことが重要と考え,芸術分野を対象にしたバーチャル・パフォーマ-の開発を行った.従来,多くの芸術は作られたものあるいは記録されたものを再生するという立場がとれていたが,バーチャル・リアリティを導入することでライブ性が実現されることになる.今年度は,「創造性」のための支援として,プロェッショナル・ア-ティストのためのマルチメディア・インタラクティブ・アート制作支援環境を構築した.具体的内容を以下に示す. 1.センサ・フュージョンによるパフォーマンス情報の入力 パフォーマ(演奏家、演技者)の動作を認識するための,モーション・ジェスチャとアコースティック・ジェスチャを計測する様々なセンサを開発した. 2.理解-応答系の製作 センサから得られた情報に対して応答を行うためのモデルをマルチエージェント・モデルにより実現した.理解系を担当するエージェント群はセンサ入力を受け、知覚レベル/認知レベルにおける心的状態をモニタリングする.応答系に相当するエージェントは以下のプリゼンテーション系とメッセージ通信を行うことにより,認知-実行サイクルが実現される.ユーザは理解系エージェントと応答系エージェントを連結するとともに,順次性(時間管理)マップを定義することにより,アプリケーションやインタラクティブ・タイトルを生成できる. プリゼンテーション系環境の製作 理解-応答系からメッセージを受けて,リアルタイムでのAV(音響、映像)の生成,加工を行う.オブジェクト指向技術により,形態の異なったメディアに対する共通アクセス・メソッドを実現した.
|