Project/Area Number |
19J30002
|
Research Category |
Grant-in-Aid for JSPS Fellows
|
Allocation Type | Single-year Grants |
Section | 国内 |
Review Section |
Basic Section 60040:Computer system-related
|
Research Institution | Hokkaido University |
Principal Investigator |
植吉 晃大 北海道大学, 大学院情報科学研究科, 特別研究員(DC2)
|
Project Period (FY) |
2019-04-25 – 2021-03-31
|
Project Status |
Completed (Fiscal Year 2019)
|
Budget Amount *help |
¥2,300,000 (Direct Cost: ¥2,300,000)
Fiscal Year 2019: ¥1,200,000 (Direct Cost: ¥1,200,000)
|
Keywords | ハードウェアアーキテクチャ / 省電力化 / 機械学習 / ニューラルネットワーク |
Outline of Research at the Start |
深層学習は実用的な画像・音声認識において極めて高い性能を示し、世界的にニューラルネットの第三次ブームを引き起こしている。深層学習は予測・分類の非常に高い性能を示すが、計算量が膨大なため、実用的に応用・発展を遂げていくために、高効率(=電力/時間)なハードウェアシステムの構築が求められている。本研究では、ハードウェアに親和性を持たせたアルゴリズムを考案・評価し、シミュレーションレベルで精度誤差を1%未満で抑える低消費電力な計算器アーキテクチャを提案する。
|
Outline of Annual Research Achievements |
深層学習は実用的な画像・音声認識において極めて高い性能を示し、世界的にニューラルネットの第三次ブームを引き起こしている。深層学習は予測・分類の非常に高い性能を示すが、計算量が膨大なため、実用的に応用・発展を遂げていくために、高効率(=電力/時間)なハードウェアシステムの構築が求められている。本研究では、ハードウェアに親和性を持たせたアルゴリズムを考案・評価し、シミュレーションレベルで精度誤差を1%未満で抑える低消費電力な計算機アーキテクチャを提案する。 平成31年度では、深層学習用ハードウェアアクセラレータチップの調査と実験を行った。計算回路規模を見積もり、その計算回数を減らすための新しい深層ニューラルネットワーク(DNN: Deep Neural Network)モデルを提案した。DNN計算は、DNNの最小演算単位であるシナプス計算を、並列に大量に行う。これらは、単純な積和演算の繰り返しであるため、これらの計算を少ないメモリアクセスで、他並列に行うことが、効率的なハードウェア設計の肝となる。しかし、これらは学習済みのモデルが定義されると、決められた仕様の下で、ハードウェア設計者が最適設計を行う必要があった。本研究では、モデル設計自体もハードウェア設計者が仕様を決められるような新しい機構を提案した。少ないオーバーヘッドの予測器を用いて、動的に本流のDNN計算をスキップする機構である。これは、計算規模と精度を、学習済みモデルに対して、後から調整することが可能となる。平成31年度では、これをベースとした、実回路上での回路規模・電力の評価を行った。
|
Research Progress Status |
翌年度、交付申請を辞退するため、記入しない。
|
Strategy for Future Research Activity |
翌年度、交付申請を辞退するため、記入しない。
|
Report
(1 results)
Research Products
(2 results)