研究概要 |
これまで様々な媒体上に蓄積されていたデータがデジタル化され,コンピュータ上で自由に処理・加工できるようになってきた.それに伴い,マルチメディアデータの量も飛躍的に増大し,これらをデーターベース化したいという要求が高まっている.このような大量の映像データから,ある出来事や情景といった意味情報に基づいて映像データにアクセスするためには,内容記述によるインデックス付けが必要である.本研究で提案する意味的構造とその発見メカニズムは,映像区間を意味的なまとまりを持つ連続したショット列として定義し,これに基づいてショットに分割された映像データから映像区間を見つけ出し,その内容記述を生成するものである.本手法の特徴は,従来の記述モデルのように,映像区間を記述者の手作業によって事前定義するのではなく,発見メカニズムによって映像区間とその内容記述を動的に定義できることである.―方,映画やCGの分野では人間の動作をディジタル化して取り扱う機会が急増している.このような作品の製作では,必要な動作データを最初から用意するため,作業の手間がかるという問題が生じている.そこで,動作データをデーターベース化し,類似した動作データを取り出して再利用すれば,製作に必要な手間を削減することができる.さらに,データーベースの検索において,「内容に基づく検索」が注目されている,これは,従来の「キーワードに基づく検索」では動作データに対処しきれないためである.本研究では,分割されたデータをクラスタリングして,動作の基本パターンを抽出する方法を開発している.また,抽出された基本パターンに一意に識別できるシンボルを定義し,動作データにシンボルを付与して,動作データの内容を記述する方法を開発している.
|