令和2年度は、昨年度に続きデータの表現形式と精度の関係についての理論的な研究を継続して行った。とくに、ResNet など層数の大きいConvolutional Neural Network (CNN)に対して、積和演算だけでなく、プーリングや relu活性化関数など非線形関数での誤差、Normalizationや学習時の逆方向の演算における誤差の蓄積に関する研究を行った。誤差解析を再構成アクセラレータ上で行う方式については、現在のデータ形式のハードウェアに少量の誤差解析の回路を付加することで、計算結果の誤差の最大を評価するハードウェアの研究を行った。また、再構成アクセラレータでの電力効率の最適化のために、Approximate Computing に基づく演算器設計と、その誤差の解析手法の研究を行った。今年度はとくにFPGA(Field Programmable Gate Array) 向けの8ビット整数近似乗算回路の構成手法の研究を行った。8ビット乗算を4つの4ビット乗算結果の和で表し、4ビット乗算を FPGA の LUT (Look Up Table) 素子を用いて構成する手法を3通り示した。これらは使用する LUT 素子の数と計算精度が異なる。それらの組合せで精度の異なる8ビットの乗算回路を構成した。既存のものと比べて同じ計算精度の場合は、消費エネルギーに相当する電力と遅延の積を小さくすることができている。研究成果は学術論文誌に掲載された。また、ASIC 向けに浮動小数点乗算器の近似化に関する研究も行った。浮動小数点乗算では、仮数部の上位4ビットに着目し、上位4ビットについては正確な乗算を、また残りの部分については非ゼロの4ビット部分を求めて、それとの計算結果を近似に用いる方式を提案した、研究成果は国際会議 TENCON 2020 において発表した
|