• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to previous page

Understanding of Essential Character Structure for Machine Learning and Kuzushiji Recognition

Research Project

Project/Area Number 22K12729
Research Category

Grant-in-Aid for Scientific Research (C)

Allocation TypeMulti-year Fund
Section一般
Review Section Basic Section 90020:Library and information science, humanistic and social informatics-related
Research InstitutionTohoku University

Principal Investigator

宮崎 智  東北大学, 工学研究科, 助教 (10755101)

Project Period (FY) 2022-04-01 – 2025-03-31
Project Status Granted (Fiscal Year 2023)
Budget Amount *help
¥3,770,000 (Direct Cost: ¥2,900,000、Indirect Cost: ¥870,000)
Fiscal Year 2024: ¥1,040,000 (Direct Cost: ¥800,000、Indirect Cost: ¥240,000)
Fiscal Year 2023: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2022: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Keywordsくずし字認識 / 文字画像生成 / 文書解析 / 古典籍 / 文字構造の理解 / くずし字 / 構造解析 / 画像認識 / グラフ解析
Outline of Research at the Start

くずし字の多くの文字種はデータ不足のために高精度な認識を実現できておらず、あらゆるくずし字を高精度に認識する技術の開発は未だ挑戦的な課題である。本研究では限られたデータを活用して少ない文字種をも高精度に認識できるくずし字認識技術を開発することを目的とする。具体的には、申請者のこれまでの研究成果であるグラフパターン解析技術と文字画像の自動生成技術に関する知見を活用し、くずし字を構成する本質的な部分構造を抽出することで複数の文字種を相補的に学習する技術を開発する。

Outline of Annual Research Achievements

令和5年度(2023年)は画像生成を用いた少数データくずし字認識手法を開発した。くずし字認識の研究において、古典籍中に存在する多くの文字種でデータ数が少ないことが大きな課題となっている。そこで本研究では、少数データ文字種と学習データ中に存在しない文字種の認識を行うために、敵対的生成モデル(Generative Adversarial Network, GAN)を基盤としたFTransGAN 生成モデルを用いてくずし字画像を生成する手法を開発した。提案手法を用いて認識モデルの学習データ枚数を補強することを提案した。 生成モデルでは、生成画像の視覚的特徴であるスタイル画像の特徴を生成画像の骨組みとなるコンテンツ画像に反映することで画像生成を行う。そのため、文書ごとに異なる文字特徴をスタイルとして捉え、その特徴を反映するように画像生成を行う。また、生成モデルの学習時に使用していない文字種画像が生成可能であるため、少数データ文字種と学習データ中に存在しない文字種画像の補強が可能である。
提案手法による生成画像とオリジナルくずし字画像を合わせた混合データセットを用いて、文字種をクラスとした分類問題を解く一般的な認識モデルを学習させる実験を行った。実験結果より、提案した生成手法を用いて生成した画像は比較手法で生成した画像と比べて字形の乱れが少ない高品質な画像となっていた。また、生成画像を認識モデルの学習に利用することで少数データ文字種の認識精度が向上し、比較手法を上回った。一般的な認識モデルでは認識が不可能な学習データ中に存在しない文字種についても、生成画像を利用することで認識が可能となり、特に提案した生成手法により生成した画像を用いることで50%以上の認識精度を達成した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

本年度はくずし字の構造を理解するため、画像生成モデルに文字特徴を学習させる手法を開発してきた。高品質なくずし字画像を生成し認識精度の向上を実現するため、基盤生成モデルであるフォント生成手法のFTransGAN に文字種分類を行うContent Classifier、および文字特徴を反映したVGG Lossを導入した生成手法を開発した。Content Classifier の導入により、文字種ごとに異なる文字特徴を明示的に反映した画像を生成することができた.また、VGG Loss の導入により、オリジナルのくずし字画像に近い文字特徴を持つ画像を生成できることを示した。まとめると、文字構造の理解には文字認識モデルが肝要であることとが明らかとなった。さらに、文字特徴量の学習程度を計測する指標として、VGG Lossが有用であることも分かった。よって、本研究の進捗状況としては、おおむねに順調に進展していると判断した。

Strategy for Future Research Activity

今後は、くずし字の本質的な構造を理解するため、言語学をもとに解析する手法を検討する。近年の大規模言語モデルは著しく進歩しており、人間の理解に近づきつつある。言語モデルを用いてくずし字認識を学習することで、くずし字を言語学的な観点から解析することができると考えており、くずし字の本質的な構造を理解した認識モデルを構築できる可能性がある。

Report

(2 results)
  • 2023 Research-status Report
  • 2022 Research-status Report
  • Research Products

    (4 results)

All 2024 2023 2022

All Journal Article (1 results) (of which Peer Reviewed: 1 results,  Open Access: 1 results) Presentation (3 results)

  • [Journal Article] Japanese historical character recognition by focusing on character parts2024

    • Author(s)
      Ishikawa Takuru、Miyazaki Tomo、Omachi Shinichiro
    • Journal Title

      Pattern Recognition

      Volume: 148 Pages: 110181-110181

    • DOI

      10.1016/j.patcog.2023.110181

    • Related Report
      2023 Research-status Report
    • Peer Reviewed / Open Access
  • [Presentation] 生成画像を利用した少数データくずし字認識に関する検討2023

    • Author(s)
      阿部楓也、岩井翔真、宮崎智、大町真一郎
    • Organizer
      第26回 画像の認識・理解シンポジウム(MIRU2023)
    • Related Report
      2023 Research-status Report
  • [Presentation] パーツプロトタイプを用いたくずし字認識に関する検討2023

    • Author(s)
      木下純哉、宮崎智、大町真一郎
    • Organizer
      第26回 画像の認識・理解シンポジウム(MIRU2023)
    • Related Report
      2023 Research-status Report
  • [Presentation] 古典籍中の少数サンプル文字種認識のための文字部位認識2022

    • Author(s)
      石川太繰、宮崎智、大町真一郎
    • Organizer
      第25回 画像の認識・理解シンポジウム(MIRU2022)
    • Related Report
      2022 Research-status Report

URL: 

Published: 2022-04-19   Modified: 2024-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi