• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2017 Fiscal Year Annual Research Report

視認性を保証する映像の超高圧縮技術の開発

Research Project

Project/Area Number 16H02841
Research InstitutionTohoku University

Principal Investigator

大町 真一郎  東北大学, 工学研究科, 教授 (30250856)

Co-Investigator(Kenkyū-buntansha) 菅谷 至寛  東北大学, 工学研究科, 准教授 (80323062)
宮崎 智  東北大学, 工学部, 助教 (10755101)
大町 方子  仙台高等専門学校, 総合工学科, 教授 (90316448)
Project Period (FY) 2016-04-01 – 2019-03-31
Keywords映像符号化
Outline of Annual Research Achievements

映像品質をその映像にとって重要な情報の視認性ととらえ、映像中の重要な領域の視認性を保証しつつ超高圧縮する技術を開発している。重要な領域を検出する手法としては、ニューラルネットワークを用いた学習による手法を検討した。物体検出の手法を用い、検出された物体領域に対して、領域の大きさ、注目度、物体の種類に応じてそれぞれ重要度を割り当て、これらを統合することで重要度を推定する。精度を高めるために、誤検出された背景領域を削除する手法や小物体のみ検出された場合の扱いを検討した。実験を行い、様々な画像に対する本手法の効果を確認した。そして、実際に符号化した際に品質にどのような影響があるのかについても調査した。一方で、重要な領域の視認性を保証するために、重要な領域を高品質、それ以外を低品質に符号化する手法として、スパースコーディングを用いた手法を検討した。重要度を重みで表し、重み付きでスパースコーディングを行う手法、および、高品質用と低品質用の辞書を用意しておき、重要領域とそれ以外で辞書を切り替えて符号化を行う手法を提案した。さらなる情報の削減のための新たな量子化方法も提案した。また、映像の最初の数フレームから基底を構築することで効率よく符号化を行う手法や、スパースコーディングを利用した超解像の手法を活用し、縮小した映像を超解像によって高解像度化することにより品質の良い画像を得る手法についても検討した。

Current Status of Research Progress
Current Status of Research Progress

2: Research has progressed on the whole more than it was originally planned.

Reason

映像から重要な領域を抽出する手法、および、重要領域とそれ以外で符号化方法を変えることで効率良い符号化を実現する手法について検討し、一通りの成果が得られた。

Strategy for Future Research Activity

さらなる高精度化について検討するとともに、画像生成を用いた符号化手法についても検討する。また、多様な映像を用いた実験を行い精度を評価する。

  • Research Products

    (7 results)

All 2017

All Journal Article (3 results) (of which Peer Reviewed: 3 results) Presentation (4 results) (of which Int'l Joint Research: 3 results)

  • [Journal Article] Text Retrieval for Japanese Historical Documents by Image Generation2017

    • Author(s)
      Sugawara Chisato、Miyazaki Tomo、Sugaya Yoshihiro、Omachi Shinichiro
    • Journal Title

      Proceedings of the 2017 Workshop on Historical Document Imaging and Processing

      Volume: - Pages: 19-24

    • DOI

      10.1145/3151509.3151512

    • Peer Reviewed
  • [Journal Article] Text Detection by Faster R-CNN with Multiple Region Proposal Networks2017

    • Author(s)
      Yoshito Nagaoka, Tomo Miyazaki, Yoshihiro Sugaya, and Shinichiro Omachi
    • Journal Title

      Proceedings of the 7th International Workshop on Camera-Based Document Analysis and Recognition

      Volume: - Pages: 15-20

    • DOI

      10.1109/ICDAR.2017.343

    • Peer Reviewed
  • [Journal Article] Glyph-Based Data Augmentation for Accurate Kanji Character Recognition2017

    • Author(s)
      Kenichiro Ofusa, Tomo Miyazaki, Yoshihiro Sugaya, and Shinichiro Omachi
    • Journal Title

      Proceedings of the 14th IAPR International Conference on Document Analysis and Recognition

      Volume: - Pages: 597-602

    • DOI

      10.1109/ICDAR.2017.103

    • Peer Reviewed
  • [Presentation] Text Retrieval for Japanese Historical Documents by Image Generation2017

    • Author(s)
      Chisato Sugawara, Tomo Miyazaki, Yoshihiro Sugaya, and Shinichiro Omachi
    • Organizer
      The 2017 Workshop on Historical Document Imaging and Processing
    • Int'l Joint Research
  • [Presentation] Text Detection by Faster R-CNN with Multiple Region Proposal Networks2017

    • Author(s)
      Yoshito Nagaoka, Tomo Miyazaki, Yoshihiro Sugaya, and Shinichiro Omachi
    • Organizer
      The 7th International Workshop on Camera-Based Document Analysis and Recognition
    • Int'l Joint Research
  • [Presentation] Glyph-Based Data Augmentation for Accurate Kanji Character Recognition2017

    • Author(s)
      Kenichiro Ofusa, Tomo Miyazaki, Yoshihiro Sugaya, and Shinichiro Omachi
    • Organizer
      The 14th IAPR International Conference on Document Analysis and Recognition
    • Int'l Joint Research
  • [Presentation] Determining Important Objects in Scene Image Using Neural Networks2017

    • Author(s)
      Daisuke Sato, Tomo Miyazaki, Yoshihiro Sugaya, and Shinichiro Omachi
    • Organizer
      電気関係学会東北支部連合大会

URL: 

Published: 2018-12-17  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi