• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

1997 Fiscal Year Annual Research Report

図的メディアと言語メディアの統合的処理による知的ベースの構築と知識ナビゲーション

Research Project

Project/Area Number 09780311
Research InstitutionUniversity of Tsukuba

Principal Investigator

中村 裕一  筑波大学, 電子情報工学系, 講師 (40227947)

Keywords知識ナビゲーション / 概念図の理解 / 概念図の生成 / メディア変換 / メディア統合 / 文献検索 / ディジタル図書館
Research Abstract

本研究では,図を文章と相補的なメディアとして積極的に活用し,人間の知的活動を支援することを目的とする.具体的には,教科書,技術文書等の要約データ,説明データとして,図とテキストを関係づけたデータを蓄積し,情報検索や概要説明に利用するための研究を行っている.すなわち,テキストの持つ詳細な表現能力と図の持つ簡潔性,定型性(共通の規約的意味を用いて、規則的に構成されていること),集約性,要約性(全体的な構成を一つの集まりで表現できること)等お互いのメディアの持つ利点を用いてデータの蓄積,検索を行う方法などである.その基本的な考え方は,図とテキストの対応関係が密な部分を文書の要旨と考え,テキストを用いて図の意味づけを行い,図の定型性を用いて文書の提示,文書の検索を行うことである.
本年度は、文書に適切な図が与えられていない場合に,文書を説明する図を生成する,概念図生成システムの構築を行った.このシステムでは,文書から抽出された文書の構造,文脈,各文の意味を概念図として生成し,文章と関係付けて提示する.具体的には,概念図の半自動生成を行う過程で意味記述・関係グラフ記述・図形構造記述の内部記述を導入し,その,記述に基づいて図を描画する.ただし,完全に自動的に図を生成するのは難しいため,図の概要を計算機で自動的に生成し,その後,人手で編集する方法をとっている.この際に,与えられている文書の意味構造が崩れないように人間の編集を補助することにより,文章の内容を分かりやすく示す図が生成される.なお,文章の意味構造を抽出するための研究は現在遂行中であり,次年度も引続き行う.

  • Research Products

    (5 results)

All Other

All Publications (5 results)

  • [Publications] Y.Nakamuraその他: "Semantic Analysis for Video Contents Extraction" ACM Multimedia'97. 394-401 (1977)

  • [Publications] S.Sato その他: "Naming and Detecting Facesin Video by the Integration of Image and Natural Language Processing" Int. Joint Conference on Artificial Intelligenge. 1488-1493 (1997)

  • [Publications] Y.Mukaigawa その他: "Face Synthesis with Arbitrary Pose and Expression from Several Images" Asian Conference on Computer Vision. Vol.1. 680-687 (1998)

  • [Publications] 木村 善文 その他: "発話情報と動作情報を用いたプレゼンテーション映像の要約" 信学技報. PRMU97-197. 7-14 (1998)

  • [Publications] Y.Nakamura その他: "Multimodal Multi-view Integrated Database for Human Behavior Understanding" IEEE International Conference on Automatic Face and Gesture Recognition. (1998)

URL: 

Published: 1999-03-15   Modified: 2016-04-21  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi