Project/Area Number |
21K11844
|
Research Category |
Grant-in-Aid for Scientific Research (C)
|
Allocation Type | Multi-year Fund |
Section | 一般 |
Review Section |
Basic Section 60060:Information network-related
|
Research Institution | The University of Tokyo |
Principal Investigator |
下見 淳一郎 東京大学, 大学院理学系研究科(理学部), 助教 (40417225)
|
Co-Investigator(Kenkyū-buntansha) |
平木 敬 東京大学, 大学院情報理工学系研究科, 名誉教授 (20238348)
|
Project Period (FY) |
2021-04-01 – 2025-03-31
|
Project Status |
Granted (Fiscal Year 2023)
|
Budget Amount *help |
¥4,030,000 (Direct Cost: ¥3,100,000、Indirect Cost: ¥930,000)
Fiscal Year 2023: ¥1,040,000 (Direct Cost: ¥800,000、Indirect Cost: ¥240,000)
Fiscal Year 2022: ¥1,430,000 (Direct Cost: ¥1,100,000、Indirect Cost: ¥330,000)
Fiscal Year 2021: ¥1,560,000 (Direct Cost: ¥1,200,000、Indirect Cost: ¥360,000)
|
Keywords | ネットワークAI処理 / 強化学習 / 輻輳制御 / ハードウェアアシスト |
Outline of Research at the Start |
ネットワーク上に分散した各エッジ機器で最適なネットワークモデルでの推論を実現するには、各エッジでのセキュリティ等の制約の他に遅延等のネットワークに起因する制約を解決する必要があり、単純なエッジ・バックエンド間のダイナミックモデルでは実現が困難である。本研究の目的は、ネットワーク経路上でAI処理を行う手法を提案し、実証のためにFPGAを用いたAI処理ネットワークテストベッドを研究開発し、実ネットワークを用いた実証実験により本研究の有用性を評価することである。
|
Outline of Annual Research Achievements |
本研究の目的は、エッジでのリアルタイムな推論やエッジ間での学習結果の共有における従来のエッジ・バックエンド間のダイナミックモデルでは実現が困難な課題の解決であり、具体的には、ネットワーク経路上でのAI処理を行う手法を提案し、実証のためにFPGAを用いたAI処理ネットワークテストベッドを研究開発し、実ネットワークを用いた実証実験により本研究の有用性を評価することである。 従来のAI処理手法で生じているこれらの問題が、実は遅延等のネットワーク処理に起因するということに着目し、ネットワーク処理とAI処理を融合した問題解決手法を提案するところに本研究の学術的独自性および創造性がある。 当該年度は昨年度に引き続きシミュレーション検証環境を用いて学習による性能改善手法の検討および効果の評価を行った。本研究ではAI処理の学習の対象とする課題としてTCPの輻輳制御を取り上げているが、強化学習を用いた複製制御を導入することで幅広いネットワーク条件に対して適応することが可能となり、環境の特徴に合わせた事前の人手によるチューニングが不要になることで効率化が実現される。 輻輳制御に対する学習手法として、学習に用いる状態、モデル、アクションの選択肢、報酬の算出方法などを比較検討した結果、アクションとして選択肢を用いるより値自体を学習するほうがより輻輳制御に適していることが分かった。一方で性能改善を実現するには学習の速度も課題であることが一層明らかになり、対象とする通信の全体的な振る舞いなどよりマクロな視点での学習が必要と考えられる状況である。
|
Current Status of Research Progress |
Current Status of Research Progress
3: Progress in research has been slightly delayed.
Reason
当該年度は昨年度に引き続きシミュレーション検証環境を用いてAI処理による性能改善を評価する計画であり強化学習によるTCPの輻輳制御の性能改善に取り組んだ。 具体的には、シミュレーション検証環境上でTCPのコネクションの状態から強化学習を行い、そのアクションに応じた輻輳制御を実装している。アクションとして選択肢ではなく値自体を学習する方向性としたことで大きく性能が改善したと考えているが、一方で環境の小さな変化に対しても安定的な学習の動作が実現できていない。安定した学習の動作を実現するためには、強化学習のモデルや報酬の算出方法などの検討だけでなく対象となる通信の全体的な振る舞いなどよりマクロな視点を組み合わせて強化学習の手法の改善を追求していく必要があると考えている。
|
Strategy for Future Research Activity |
引き続きシミュレーション検証環境のもとで提案手法の改善を行っていく。具体的には強化学習の安定的な動作を目指して学習手法の比較検討を引き続き行うとともに、対象となる通信の全体的な振る舞いなどよりマクロな視点を組み合わせた手法の検討を行う。 シミュレーション検証環境での実験結果で具体的な性能改善が見込めるようになった後に、実ネットワークを用いた検証環境の構築を行い、提案手法の実ネットワーク検証環境での動作および性能改善について検証を行っていく。また、その検証結果について研究発表を行う。
|