流体計算などの格子に基づく計算では、高精度が必要な領域をより高精細な格子で計算できる適合細分化格子(AMR)法がマルチスケール問題解決の鍵となる技術として注目されている。本研究では、大規模GPUスパコンで従来と比較して極めて高性能なAMR計算を実現するため、機械学習によりシミュレーションの「未来」の結果を予測し、それに基づき計算負荷を動的に分散する手法を開発する。開発手法を課題代表者らが開発中のAMR法フレームワークへ導入し、様々な実アプリケーションへ適用することを目指す。 深層学習で、規模の大きい流体シミュレーションの 「未来」の結果を予測する手法を発展させた。昨年度までの研究では、複数の時間ステップを一つの空間の次元として捉えてEncoder-decoderモデルを基盤に、畳み込み層とそれに対応する逆畳み込み層の間にスキップ接続を導入した深層ニューラルネットワークモデルを構築した。昨年度までは限られた大きさの計算領域に対して予測を行っていたが、任意の大きさの計算領域に対して適用可能となるよう計算領域全体にパッチ的に順に適用することで、計算領域全体に対して「未来」を予測する手法を開発した。また、予測精度向上のため、損失関数として元々の流体シミュレーションが満たす方程式に基づいたものを導入することを検討した。 これと並行して、AMR法フレームワーク自体を格子ボルツマン法に適用できるように高度化し、3次元計算に対して適用できるよう開発を進めた。流体中を移動する物体を含む3次元シミュレーションに対して、物体周りの局所的領域だけを高解像度にするシミュレーションが可能となった。 研究を進めるにつれて「未来」を予測する手法の構築が重要で、そこに注力し研究を進めた。精度良い予測が可能となり、AMRフレームワークの動的負荷分散手法に適用できるという知見を得た。
|