Project/Area Number |
21K11804
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 60040:Computer system-related
|
Research Institution | Tokyo University of Agriculture and Technology |
Principal Investigator |
Nakajo Hironori 東京農工大学, 工学(系)研究科(研究院), 教授 (80217736)
|
Project Period (FY) |
2021-04-01 – 2024-03-31
|
Project Status |
Completed (Fiscal Year 2023)
|
Budget Amount *help |
¥4,290,000 (Direct Cost: ¥3,300,000、Indirect Cost: ¥990,000)
Fiscal Year 2023: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2022: ¥1,300,000 (Direct Cost: ¥1,000,000、Indirect Cost: ¥300,000)
Fiscal Year 2021: ¥1,690,000 (Direct Cost: ¥1,300,000、Indirect Cost: ¥390,000)
|
Keywords | ハードウェアアクセラレーション / RISC-V / FPGA / SoC / ベクトル拡張 / ベクトルレジスタ / アクセラレータ |
Outline of Research at the Start |
SoC FPGAで推論処理に加えて学習処理を実行しようとすると、内蔵CPUとFPGA内に実装したアクセラレータ間のデータ転送にSoC内部メモリを経由する際に遅延が生じる。本研究では高速処理実現ために、CPU-アクセラレータ間データ転送時にCPUのレジスタを直接介することで転送遅延の低減を図る。そのために、CPU内のベクトルレジスタを利用することでビット幅を拡大し、さらにベクトルレジスタをFIFO化することを特徴とする、新しいCPU-アクセラレータ間の連続データ転送機構を提案し、SoC FPGA上に実現する。GPUを用いた場合や従来のSoC FPGAと比較し、提案方式の有効性を実践的に示す。
|
Outline of Final Research Achievements |
In this research, we have implemented the RISC-V vector extension as an internal processor. Between the processor and accelerator, we have built the dual-ported vector register in the processor to supply the data loaded by the processor from memory and the destination register where the calculation is executed directly to the accelerator at high speed. We also propose and have designed a method called SHAred VEctor Register (SHAVER) to efficiently collect the calculation results. We have verified its effectiveness. As an AI application, we have implemented an accelerator on an FPGA to speed up the convolution calculations used in deep neural networks (DNNs).
|
Academic Significance and Societal Importance of the Research Achievements |
本研究は、高速なアクセラレータを有効に活用するために必要となる高速データ転送機構を提案したものであり、今後のアクセラレータへのデータ供給や結果の収集において有効なものとなり、特にAIアプリケーションにおいて学習や推論に要する処理時間を大幅に短縮できるものである。 GPUを用いた高速化とは別に、FPGAによるハードウェアアクセラレーションにおいて有効となり、リコンフィギャラブルシステムにおいて学術的な意義は大きい。本機構によりエッジにおけるAI処理の高速化に寄与し、スマート農業や自動運転においても有効な手法であり、社会的意義は高いものである。
|