2022 Fiscal Year Research-status Report
Project/Area Number |
22K11956
|
Research Institution | Kumamoto University |
Principal Investigator |
尼崎 太樹 熊本大学, 大学院先端科学研究部(工), 教授 (50467974)
|
Co-Investigator(Kenkyū-buntansha) |
木山 真人 熊本大学, 大学院先端科学研究部(工), 助教 (30363534)
|
Project Period (FY) |
2022-04-01 – 2025-03-31
|
Keywords | エッジAI / 深層学習週 / ニューラルネットワーク / 集積回路 / コンパイラ |
Outline of Annual Research Achievements |
IoT(Internet of Things)の普及により,現場にあるエッジ端末が無線通信でデータを収集し,クラウドに自動でアップできる環境が整ってきた.こうした中,通信量,機密性,実時間応答性の観点より,エッジ側で知的な処理を行うエッジAIコンピューティングが注目されている.一方,電力,メモリ,速度などあらゆる計算リソースに制約がかかる汎用プロセッサでは,深層学習技術を十分に活用することが難しい.本研究では,高い処理能力や大規模メモリを前提とした従来の計算原理とは異なり,多様化するAIモデルに柔軟に対応できる,エッジAI向け設計基盤技術の確立を目的とする.これより,開発したAIアプリケーションを(電力・速度の面で)最適な形でエッジ端末に実装し,迅速に市場へ投入可能となる.
AIエッジコンピューティングの課題として,データ量の飛躍的増大やAIモデルの多様化による性能低下があげられる.これは,次の3つに起因する:(1)エッジ端末として,CPU/GPUは電力的な問題がある.また,AI専用チップは機能が固定されているため,今後も進化するAIモデルへの対応が難しい.(2)深層学習フレームワークとエッジ端末への実装は完全に別離しており,エッジ端末向けの最適化は設計者のスキルに大きく依存する.(3)HWリソースの観点より,エッジ端末は学習に向かず,エッジ側の多様な環境に対応できない.
我々は,リコンフィギャラブルロジック技術とコンパイラ技術の融合によってこれらの課題が解決できると考えた.本研究では①エッジAI向けデバイス・アーキテクチャ,②DNNコンパイラ,③転移学習方式について研究を行う.
|
Current Status of Research Progress |
Current Status of Research Progress
2: Research has progressed on the whole more than it was originally planned.
Reason
高い処理能力や大規模メモリを前提とした従来の計算原理とは異なり,多様化するAIモデルに柔軟に対応できるエッジAI端末,および設計プラットフォームを含めたのエッジAI向け設計基盤技術確立を目的とする.これにより,開発したAIアプリケーションを最適な形でエッジ端末に実装し,迅速に市場へ投入できる仕組みを明らかにする.本研究では①エッジAI向けデバイス・アーキテクチャ,②DNNコンパイラ,③転移学習方式について研究を行う.R4年度に最も注力した点は,Python ベースのTranslator を開発である.このTranslatorはPytorchなどのAIフレームワークが出力するONNXを入力として,データ処理グラフに変換し,高位合成可能なC++コードとして出力する.この際,FPGAへの実装効率が良くなるようにVitisのライブラリをインポートしてプラグマおよび演算関数のライブラリを呼び出す形とした.
|
Strategy for Future Research Activity |
本研究では,多様化するAIモデルに柔軟に対応できるエッジAI端末,および設計プラットフォームの基盤技術を確立することで,高電力効率なIoT/AI指向の知的システムを実現する.実際に①リコンフィギャラブル・アーキテクチャ,②DNNコンパイラ,③エッジサイドでの追加学習方式に分けて研究を行う. ① エッジAI端末向けデバイス・アーキテクチャの研究(担当:尼崎):これまでの研究より得られた知見に基づき,エッジAIアプリケーショ ンに応じて最適な構成をとるデバイス・アーキテクチャを明らかにする.申請者によるAI専用ハードウェアReNAをベースに,物体認識や時系列処理への対応を行う. ② DNNコンパイラの開発(担当:木山):R5年度に開発したTranslatorを発展させる形で中間言語としてLLVM IR (Intermediate Representation)を規定し,推論モデルの最適化,制御コードの生成を行う.オープンフォーマットONNX(Open Neural Network Exchange Format)を介して既存の深層学習フレームワークと連携し,精度を落とさず量子化する仕組みを明らかにする.ここではScale HLSのように既存の高位合成ツールを参考にしながら開発を行う. ③ エッジサイドでの追加学習方式の検討(担当:尼崎):エッジ側での学習に関し問題となるのはそもそもアーキテクチャが軽量DNNであることが重要である.本年度はCNNに依存しないリザバータイプのDNNアーキテクチャをベースとした再学習方式について検討を行う.
|
Causes of Carryover |
R4年度はDNNコンパイラ開発を主題としたため,内容のほとんどがプログラム開発であった.そのため,物品費の計上をR5年度にまわす形とした.またCOVID-19の影響で渡航が制限されていたが,R5年度は2件の国際会議に投稿予定である.その他,DNNコンパイラおよび軽量DNNアーキテクチャの論文掲載費として2件分を計上している.
|