• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2018 Fiscal Year Annual Research Report

Generalized competitive learning for improving and interpreting neural networks

Research Project

Project/Area Number 16K00339
Research InstitutionTokai University

Principal Investigator

上村 龍太郎  東海大学, 情報教育センター, 非常勤講師 (80176643)

Project Period (FY) 2016-04-01 – 2019-03-31
Keywordsニューラルネットワーク / 汎化能力 / 解釈能力 / 相互情報量 / 競合学習 / 情報圧縮 / 内部表現 / 情報劣化
Outline of Annual Research Achievements

ニューラルネットワークの競合学習をより一般的な方法に移行させる研究をおこなってきた。一般化された競合学習は、未知の入力にうまく対応できるだけではなく、これまで不可能とされていた推論過程の解釈に応用できることがわかった。新しい学習法は、相互情報量最大化と最大化された情報量の圧縮から構成されている。
まず、相互情報量の最大化は、学習の基本メカニズムであるWinner-take-allメカニズムによって実現できることを確認した。また、競合するニューロンの数を増加させることによっても情報量を大きくできることもわかった。さらに、情報量最大化を円滑におこなうために、構造の単純化と誤差の最小化を情報量最大化から完全に分離する学習法を提案した。情報量最大化と構造の単純化と誤差最小化は矛盾する場合があり、情報量最大化を十分に大きくすることができない場合があった。この欠陥を克服できる可能性を確認できた。
次に、この情報量を圧縮する方法を提案した。圧縮は、ニューラルネットワークを構成するすべてのウェイトを平均することによって求められることがわかった。また、情報量の圧縮は、情報量最大化の後でおこなわれるので、情報の劣化を最小限にすることができることも確認できた。
この方法を、実際のビジネスデータへ応用した。ビジネスデータ解析では、結果の解釈が最も重要視され、解釈できないニューラルネットワークの応用の最大の問題点であった。応用の結果より、従来の方法よりも、新しいパターンにうまく対応できることがわかった。さらに、従来の方法、たとえば、ロジスティック回帰分析と比較すると、より単純な解釈を可能にすることがわかった。研究成果は、ニューラルネットワークの応用範囲をさらに広げるものであると考える。

  • Research Products

    (11 results)

All 2019 2018

All Journal Article (4 results) (of which Peer Reviewed: 4 results) Presentation (7 results) (of which Int'l Joint Research: 7 results)

  • [Journal Article] Sparse semi-autoencoders to solve the vanishing information problem in multi-layered neural networks2019

    • Author(s)
      Kamimura Ryotaro and Takeuchi Haruhiko
    • Journal Title

      Applied Intelligence

      Volume: - Pages: 1-24

    • DOI

      https://doi.org/10.1007/s10489-018-1393-x

    • Peer Reviewed
  • [Journal Article] SOM-based information maximization to improve and interpret multi-layered neural networks: From information reduction to information augmentation approach to create new information2019

    • Author(s)
      Ryotaro Kamimura
    • Journal Title

      Expert systems with applications

      Volume: 125 Pages: 397-411

    • DOI

      https://doi.org/10.1016/j.eswa.2019.01.056

    • Peer Reviewed
  • [Journal Article] Neural self-compressor: Collective interpretation by compressing multi-layered neural networks into non-layered networks2019

    • Author(s)
      Ryotaro Kamimura
    • Journal Title

      Neurocomputing

      Volume: 323 Pages: 12-36

    • DOI

      https://doi.org/10.1016/j.neucom.2018.09.036

    • Peer Reviewed
  • [Journal Article] Supposed Maximum Mutual Information for Improving Generalization and Interpretation of Multi-Layered Neural Networks2019

    • Author(s)
      Ryotaro Kamimura
    • Journal Title

      Journal of Artificial Intelligence and Soft Computing Research

      Volume: 9.2 Pages: 123-147

    • DOI

      https://doi.org/10.2478/jaiscr-2018-0029

    • Peer Reviewed
  • [Presentation] Excessive, Selective and Collective Information Processing to Improve and Interpret Multi-layered Neural Networks2018

    • Author(s)
      Ryotaro Kamimura and Haruhiko Takeuchi
    • Organizer
      Proceedings of SAI intelligent systems conference
    • Int'l Joint Research
  • [Presentation] Information-Theoretic Self-compression of Multi-layered Neural Networks2018

    • Author(s)
      Ryotaro Kamimura
    • Organizer
      International Conference on Theory and Practice of Natural Computing
    • Int'l Joint Research
  • [Presentation] Autoeoncoders and Information Augmentation for Improved Generalization and Interpretation in Multi-layered Neural Networks2018

    • Author(s)
      Ryotaro Kamimura
    • Organizer
      International Symposium on Computational and Business Intelligence (ISCBI)
    • Int'l Joint Research
  • [Presentation] Information Augmentation, Reduction and Compression for Interpreting Multi-layered Neural Networks2018

    • Author(s)
      Ryotaro Kamimura
    • Organizer
      Future of Information and Communication Conference
    • Int'l Joint Research
  • [Presentation] Local Selective Learning for Interpreting Multi-Layered Neural Networks2018

    • Author(s)
      Ryotaro Kamimura, Ryozo Kitajima and Hiroyuki Sakai
    • Organizer
      Joint 10th International Conference on Soft Computing and Intelligent Systems and 19th International Symposium on Advanced Intelligent Systems
    • Int'l Joint Research
  • [Presentation] Correlation-Constrained Mutual Information Maximization for Interpretable Multi-Layered Neural Networks2018

    • Author(s)
      Ryotaro Kamimura and Haruhiko Takeuchi
    • Organizer
      Joint 10th International Conference on Soft Computing and Intelligent Systems and 19th International Symposium on Advanced Intelligent Systems
    • Int'l Joint Research
  • [Presentation] Autoeconder-Based Excessive Information Generation for Improving and Interpreting Multi-Layered Neural Network2018

    • Author(s)
      Ryotaro Kamimura and Haruhiko Takeuchi
    • Organizer
      6th International Conference on Smart Computing and Artificial Intelligence (SCAI 2018)
    • Int'l Joint Research

URL: 

Published: 2019-12-27  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi