研究課題/領域番号 |
17J00403
|
研究種目 |
特別研究員奨励費
|
配分区分 | 補助金 |
応募区分 | 国内 |
研究分野 |
ソフトコンピューティング
|
研究機関 | 北海道大学 |
研究代表者 |
植吉 晃大 北海道大学, 大学院情報科学研究科, 特別研究員(DC1)
|
研究期間 (年度) |
2017-04-26 – 2020-03-31
|
研究課題ステータス |
完了 (2018年度)
|
配分額 *注記 |
2,800千円 (直接経費: 2,800千円)
2018年度: 900千円 (直接経費: 900千円)
2017年度: 1,000千円 (直接経費: 1,000千円)
|
キーワード | ハードウェアアクセラレータ / 深層学習 / システムアーキテクチャ / 量子化近似 / ハードウェア志向アルゴリズム |
研究実績の概要 |
「小型・低電力で柔軟な学習型ハードウェアシステムの構築」のために、実用的に使用可能なニューラルネットワーク計算システムアーキテクチャを探索する。 大量のデータと演算を要する深層学習を効率的に計算するハードウェアアーキテクチャの探索として、深層学習を構成するニューラルネットワーク(DNN: Deep Neural Network)の構造から最適な計算手法を解析し、最適なアーキテクチャの解の一つを提案・実装するにまで至った。まず、そこで、DNNの代表格である、畳み込みニューラルネットワーク(CNN: Convolutional Neural Network)を二値化させた時の実行性能を最大化させる手法をField Programmable Gate Array (FPGA)をベースに解析した。その結果、商用のFPGA上でDNN演算の最小演算単位であるシナプス計算を1秒間に8兆回行えることを実証した。この結果をまとめ、2つの国内会議と1つの国際会議で発表した。 これらの解析から、さらなる実用かつ汎用的なDNNハードウェアアクセラレータを目指して、演算精度とハードウェアの特性を再考した。DNNの性能向上とともに、より高難度なタスクが要求されていることから、演算精度を保ちつつ効率的に計算できる方法として、対数量子化に着目し、解析を行った。この結果を基に、対数量子化に最適なハードウェアアーキテクチャを探索した。これを実際に設計・実装し、3次元積層技術を用いたチップに搭載させ、業界最高峰の国際会議、International Solid-State Circuits Conference (ISSCC)で発表、さらに、Journal of Solid-State Circuits(JSSC)にも掲載された。
|
現在までの達成度 (段落) |
翌年度、交付申請を辞退するため、記入しない。
|
今後の研究の推進方策 |
翌年度、交付申請を辞退するため、記入しない。
|