• Search Research Projects
  • Search Researchers
  • How to Use
  1. Back to project page

2022 Fiscal Year Research-status Report

深層学習を用いた時系列情報予測に関する研究

Research Project

Project/Area Number 19K01591
Research InstitutionUniversity of Shizuoka

Principal Investigator

六井 淳  静岡県立大学, 経営情報学部, 教授 (70362910)

Project Period (FY) 2019-04-01 – 2024-03-31
KeywordsLSTM / 社会的時系列 / グレンジャー因果検定 / GRU / LSTNet / サポートベクター回帰 / ESN
Outline of Annual Research Achievements

本研究では、複数のLSTMを並列に動作させる機構を組み合わせることで、蜘蛛の糸のように複雑に収束する1系列を可能な限り少ない誤差で予測する新たなRNNの枠組みを提案した[1][2].更に、本研究では、データ間の関連性について、グレンジャー因果検定とクラスタリングを組み合わせ、真に有用な関連時系列を取捨選択する手法を構築した.更に、多変量時系列を統合させる際には、非線形回帰手法のサポートベクトル回帰を用いることで飛躍的に予測精度を向上させた[3].提案手法は計算コストの増加が問題点であったが、ESNを用いて計算コストの向上を図った[4].
[1] Jun Rokui,“Historical time series prediction framework based on recurrent neural network using multivariate time series”,IIAI-AAI2021,pp.486-489,2021.
[2] Jun Rokui, Rin Adachi,“Cell-expanded Long Short-term Memory", Joint 12th International Conference on Soft Computing and Intelligent Systems and 23rd International Conference on Advanced Intelligent Systems,2022.
[3] 松浦 匠吾,六井 淳,"Recurrent Neural Networkに基づく複数時系列関係を考慮した時系列予測”,FIT2021講演論文集,第二分冊,pp27-32,2021.
[4] 大嶽 和氣,六井 淳,"Echo State Networkを用いた高速な多変量時系列予測”,The 36st Annual Conference of the Japanese Society for Artificial Intelligence 2022,2022.

Current Status of Research Progress
Current Status of Research Progress

1: Research has progressed more than it was originally planned.

Reason

本研究の目標は主に3つに大別できる。
① 複数時系列入力を並列に駆動させるLSTM機構の構築、
② ①から得られる複数予測出力を1系列に統合する機構の構築
③ 時系列情報からの起因子分析
①、②、③についてまんべんなく、提案手法の有効性が実験的に確認されており、実時間処理での精密な未来予測が既に可能となっている.当初の計画通りに研究は進んでいる.実用化の面で課題であった計算コストの問題も解決方法を示すことができている.つまり、当初の計画は現段階で既に達成されていると言っても過言ではない.唯一、時系列情報に突発的な変動があった際に予測がうまくいかない現象が確認されており、③の観点から解決を図っていく予定である.

Strategy for Future Research Activity

実験的にほとんどの社会時系列変化に対して高精度な予測が達成できているが、突発的な時系列変動に対してはうまくいかない場合が確認されている.これは与えられている複数の入力時系列にない情報が起因していると考えられるため、予測対象時系列そのものを解析し、原因となる変動要因を特定しなければならない.今後、信号処理などで要因分析に利用されている独立低ランク行列を利用した起因子分析を進め、信号を単純化することで予測に繋げていく予定である.具体的には、独立低ランク行列によって予測対象時系列の分離信号を得る.分離信号は原信号と比べて単純な構造をしているため、分離信号独立で予測時系列を得た後に、再構成する手法を検討中である.

  • Research Products

    (8 results)

All 2023 2022

All Journal Article (4 results) (of which Peer Reviewed: 1 results) Presentation (4 results) (of which Int'l Joint Research: 1 results)

  • [Journal Article] 独立低ランク行列分析を用いた分離予測時系列再構成手法2023

    • Author(s)
      和泉 響、六井 淳
    • Journal Title

      電子情報通信学会技術報告書

      Volume: PRMU2022-95 Pages: 187-192

  • [Journal Article] Cell-expanded Long Short-term Memory2022

    • Author(s)
      Rokui Jun、Adachi Rin
    • Journal Title

      Proc of Joint 12th International Conference on Soft Computing and Intelligent Systems and 23rd International Conference on Advanced Intelligent Systems

      Volume: F-1-C-5 Pages: 1-6

    • DOI

      10.1109/SCISISIS55246.2022.10001924

    • Peer Reviewed
  • [Journal Article] Echo State Network を用いた高速な多変量時系列予測2022

    • Author(s)
      大嶽 和氣、六井 淳
    • Journal Title

      The 36st Annual Conference of the Japanese Society for Artificial Intelligence 2022

      Volume: 3E4-GS-2-02 Pages: 1-6

  • [Journal Article] LSTNet に基づく注目区間情報を強調する多変量時系列予測2022

    • Author(s)
      佐野 隼乙、六井 淳
    • Journal Title

      FIT2022講演論文集

      Volume: 第二分冊 Pages: 25-30

  • [Presentation] 独立低ランク行列分析を用いた分離予測時系列再構成手法2023

    • Author(s)
      和泉 響
    • Organizer
      パターン認識・メディア理解研究会
  • [Presentation] Cell-expanded Long Short-term Memory2022

    • Author(s)
      Jun Rokui
    • Organizer
      Joint 12th International Conference on Soft Computing and Intelligent Systems and 23rd International Conference on Advanced Intelligent Systems
    • Int'l Joint Research
  • [Presentation] Echo State Network を用いた高速な多変量時系列予測2022

    • Author(s)
      大嶽 和氣
    • Organizer
      The 36st Annual Conference of the Japanese Society for Artificial Intelligence 2022
  • [Presentation] LSTNet に基づく注目区間情報を強調する多変量時系列予測2022

    • Author(s)
      佐野 隼乙
    • Organizer
      FIT2022

URL: 

Published: 2023-12-25  

Information User Guide FAQ News Terms of Use Attribution of KAKENHI

Powered by NII kakenhi