• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Establishing Equivalent Transformation from Syntactic Parsing Models to Hierarchical Probabilistic Automaton

Research Project

Project/Area Number 24800004
Research Category

Grant-in-Aid for Research Activity Start-up

Allocation TypeSingle-year Grants
Research Field Intelligent informatics
Research InstitutionUniversity of Tsukuba

Principal Investigator

WAKABAYASHI Kei  筑波大学, 図書館情報メディア系, 助教 (40631908)

Project Period (FY) 2012-08-31 – 2014-03-31
Project Status Completed (Fiscal Year 2013)
Budget Amount *help
¥2,990,000 (Direct Cost: ¥2,300,000、Indirect Cost: ¥690,000)
Fiscal Year 2013: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Fiscal Year 2012: ¥1,560,000 (Direct Cost: ¥1,200,000、Indirect Cost: ¥360,000)
Keywords教師なし構文解析 / 階層的確率オートマトン / 階層型隠れマルコフモデル / 確率文脈自由文法 / 依存構造解析 / チャンキング / フレーズ抽出 / 構文解析 / 確率モデル推論
Research Abstract

Syntactic parsing is a data analysis technique for estimating structures of sequence data. Existing syntactic parsing models have a problem that the computation time extremely increase for longer sequences, therefore they can hardly be applied to the big data analysis. In this project, we established the equivalent transformation from the existing parsing models to the hierarchical probabilistic automaton which can parse in the linear computation time with respect to the length of sequence. I demonstrated that the proposed transformation enable us to execute approximate parsing of longer sequences very faster, and established the fast and effective sequence data analysis applications of noun phrase extraction and topical phrase extraction.

Report

(3 results)
  • 2013 Annual Research Report   Final Research Report ( PDF )
  • 2012 Annual Research Report
  • Research Products

    (8 results)

All 2014 2013

All Journal Article (4 results) (of which Peer Reviewed: 4 results) Presentation (4 results)

  • [Journal Article] 部分統語構造を考慮した階層的確率オートマトンに基づく教師なしチャンキング2014

    • Author(s)
      若林啓
    • Journal Title

      情報処理学会論文誌 : データベース (TOD)

      Volume: Vol.7, No.62 (印刷中) Pages: 9-9

    • NAID

      110009799912

    • Related Report
      2013 Final Research Report
    • Peer Reviewed
  • [Journal Article] 部分統語構造を考慮した階層的確率オートマトンに基づく教師なしチャンキング2014

    • Author(s)
      若林 啓
    • Journal Title

      情報処理学会論文誌:データベース(TOD)

      Volume: Vol. 7, No. 62

    • NAID

      110009799912

    • Related Report
      2013 Annual Research Report
    • Peer Reviewed
  • [Journal Article] 部分統語構造を考慮した確率オートマトンに基づく教師なしチャンキング2013

    • Author(s)
      若林啓
    • Journal Title

      電子情報通信学会他共催第6回Webとデータベースに関するフォーラム論文集

      Volume: II-3-2 Pages: 7-7

    • Related Report
      2013 Final Research Report
    • Peer Reviewed
  • [Journal Article] 部分統語構造を考慮した確率オートマトンに基づく教師なしチャンキング2013

    • Author(s)
      若林 啓
    • Journal Title

      電子情報通信学会他共催 第6回 Webとデータベースに関するフォーラム論文集

      Volume: -

    • Related Report
      2013 Annual Research Report
    • Peer Reviewed
  • [Presentation] 階層型HMMに基づくフレーズ生成トピックモデルの提案2014

    • Author(s)
      若林啓
    • Organizer
      In電子情報通信学会他共催第6回データ工学と情報マネジメントに関するフォーラム (DEIM)
    • Place of Presentation
      淡路夢舞台&ウェスティン淡路 (DEIMフォーラム2014優秀論文賞受賞)
    • Related Report
      2013 Final Research Report
  • [Presentation] 階層型HMMに基づくフレーズ生成トピックモデルの提案2014

    • Author(s)
      若林 啓
    • Organizer
      電子情報通信学会他共催 第6回データ工学と情報マネジメントに関するフォーラム (DEIM)
    • Place of Presentation
      淡路島夢舞台&ウェスティン淡路(兵庫県淡路市)
    • Related Report
      2013 Annual Research Report
  • [Presentation] 確率オートマトンに基づく確率文脈自由文法モデルの推論2013

    • Author(s)
      若林啓
    • Organizer
      電子情報通信学会総合大会
    • Place of Presentation
      岐阜大学
    • Related Report
      2013 Final Research Report
  • [Presentation] 確率オートマトンに基づく確率文脈自由文法モデルの推論2013

    • Author(s)
      若林 啓
    • Organizer
      電子情報通信学会 総合大会
    • Place of Presentation
      岐阜大学
    • Related Report
      2012 Annual Research Report

URL: 

Published: 2012-11-27   Modified: 2019-07-29  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi