• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2003 Fiscal Year Annual Research Report

蓄積型放送のためのパーソナル視聴の研究

Research Project

Project/Area Number 14380177
Research InstitutionKyoto University

Principal Investigator

角谷 和俊  京都大学, 情報学研究科, 助教授 (60314499)

Co-Investigator(Kenkyū-buntansha) 田中 浩也  京都大学, 情報学研究科, COE研究員
田中 克己  京都大学, 情報学研究科, 教授 (00127375)
Keywords蓄積型放送 / パーソナル視聴 / ストリーム型 / マルチメディアコンテンツ / Web / 詳細度 / 多重詳細度 / ズームインターフェース
Research Abstract

(1)蓄積型TVのためのマルチメディアコンテンツのパーソナル視聴方式
ストリーム型の放送番組コンテンツのWebページヘの動的統合システムの開発を行い,国際会議・学術雑誌などにその成果を公表した.本システムは,ユーザがWebページの任意の個所を選択することにより,その内容を適切な長さのビデオによって補強するものである.また,Webページの意味構造を利用し,これに対して,統合のためのクエリを記述することによって,統合のためのテンプレートを実現する枠組を構築した.また,マルチメディア統合コンテンツを構築するためのスクリプトと,統合に用いられる素材に対して利用条件を表現するメターデータ記述を開発した.これらの記述によって,権利問題を解決しながら,コンテンツの動的な統合を実現する機構を開発した.
(2)放送コンテンツと関連情報の複合化とパーソナル視聴方式
放送コンテンツにおける,映像と付帯するデータ(字幕テキスト)から,多重の詳細を持つWebコンテンツを自動的に生成し,詳細度をズームインタフェースで変更しながら個人的に視聴することが可能な手法を開発し,国際会議などにその成果を公表した.本手法では,自覚データかが付与された映像から,時間データを基に映像をクラスタリングし,映像サムネイルと付帯するテキストを抽出し,ユーザの閲覧時にWebページを動的に生成する.表示範囲の変更には,映像の区間長を表すサムネイル・サイズをユーザが操作することで詳細度の変更を行う方式を開発した.さらに,シーンの検索には,生成されたテキストを用いてシーンの特定を行い,関連情報と共に放送コンテンツを閲覧する機能を開発した.

Research Products

(3 results)

All Other

All Publications

  • [Publications] 湯本 高行, 吹野 直紀, 馬 強, 角谷 和俊, 田中 克己: "Video-Augmented Web:ビデオストリームのWebページへの動的統合"日本データベース学会Letters. 2・2. 41-44 (2003)

  • [Publications] Takayuki Yumoto, Qiang Ma, Kazutoshi Sumiya, Katsumi Tanaka: "A Dynamic Content Integration Language for Video Data and Web Content"Proceedings of the 4th International Conference on Web Information Systems Engineering(WISE2003). 83-92 (2003)

  • [Publications] Kazutoshi Sumiya, Mahendren Munisamy, Katsumi Tanaka: "TV2Web : Generating and Browsing Web with Multiple LOD from Video Streams and their Metadata"Proceedings of International Conference on Informatics Research for Development of Knowledge Society Infrastructure. 156-165 (2004)

URL: 

Published: 2005-04-17   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi