2023 Fiscal Year Annual Research Report
Multi-Layer In-Memory Computing and Its Application for GNNs
Project/Area Number |
22K21284
|
Research Institution | Tokyo Institute of Technology |
Principal Investigator |
藤木 大地 東京工業大学, 科学技術創成研究院, 准教授 (60963254)
|
Project Period (FY) |
2022-08-31 – 2024-03-31
|
Keywords | インメモリ計算 / PIM / 計算機アーキテクチャ |
Outline of Annual Research Achievements |
複数階層インメモリコンピューティングで構成される計算機のアーキテクチャ上の課題を整理し、GNN等の機械学習及びデータ並列型ワークロード向けのタスクスケジューリング手法・性能予測手法を考案した。特に実行時に計算特性が入力に依存する形で決定し、かつ入力の分析ができないとき、タスク割り当て時の性能予想が困難であることが判明し、性能予測器を学習させることによって実用に耐えうる予測精度が得られることが知見として得られた。また複数のスケジューリングアルゴリズムを精査し、一般的なスケジューラとの最適化目標の違いから、独自の適応的スケジューリング手法を考案した。
更に、本研究を遂行する上で、複数階層インメモリコンピューティングがメモリ中心型計算に存在する局所性の利活用に関する課題を解決しうることが知見として得られた。単一階層でのインメモリ計算では、頻繁にアクセスされるデータに高速にアクセスする機構がないため、普遍的に存在する局所性の利活用が困難だった。しかし、既存のメモリ階層の持つメモリ間の性能差を利用し、ホモジニアスなインメモリ計算をメモリ階層に縦断的に適用することで、その課題を解決する糸口となることが考えられた。調査の結果、複数階層インメモリコンピューティングでの局所性利活用には「入力コヒーレンス」と「出力コヒーレンス」を保証することが重要であることが判明した。そこで、メモリの見方を透過的に変える関数を「ビュー」として定義し、インメモリコンピューティングの機能を非破壊的なビュー生成に限定することで、ビューの入出力コヒーレンスを保証できるようなプロトコル拡張が定義できることが判明した。これにより、ビューの再利用が複数のメモリ階層間で可能になり、汎用インメモリ計算の可能性を広げることができた。本研究をまとめた論文についても、計算機アーキテクチャの最難関国際会議に採録された。
|