前年度に開発したTwo-step FORCE学習は,従来のFORCE学習に比べて計算量が小さいという利点の一方で,主学習で用いる入力や教師データを事前学習でも使わなければならないという欠点があった.本年度はこれを解決するため,事前学習において様々なタイプの時系列を網羅した入力や教師データを用いた,Transfer-FORCE学習を開発した.本手法は,一度事前学習を行えば主学習にて様々なタスクを扱えるため,従来のFORCE学習と同様に扱うことができる.本手法についての数値的・理論的解析をまとめた論文が学術誌に掲載された. 並行して,前年度に引き続き,FORCE学習の発展的手法であるFull-FORCE学習の改良に注力した.Full-FORCE学習では,隠れ層の活動の目標値を生成するために,学習対象のネットワークに加えて,第二のネットワーク(教師リザバー)を用いる.Full-FORCE学習における仮定では,これら2つのネットワークは共通のハイパーパラメータを持つ必要があるため,独立に最適なハイパーパラメータ探索を行えないという問題があった.これを解決するため,本研究では,(i)Partial-FORCE学習, (ii)Hidden-FORCE学習,という2つの発展的手法を開発した. Partial-FORCE学習では,各ネットワークの一部のニューロンのみを学習の対象とすることで,様々なモデル構造を実現可能にした.各モデル構造と学習性能の関係を解析した結果を国際会議にて発表した. Hidden-FORCE学習では,学習に用いる誤差の定義を修正することで,教師リザバーのパラメータに関する情報が不要となった.これにより,独立なハイパーパラメータ探索が可能になった他,実験データを隠れ層の活動の目標値として陽に与える場合にも適用可能となった.現在この内容は投稿論文として準備中である.
|