配分額 *注記 |
13,900千円 (直接経費: 13,900千円)
2001年度: 3,500千円 (直接経費: 3,500千円)
2000年度: 4,800千円 (直接経費: 4,800千円)
1999年度: 5,600千円 (直接経費: 5,600千円)
|
研究概要 |
本研究ではまず,LAN接続された複数のマシンによるヘテロジニアスな並列実行環境の構築を行った.既設のWS・PC群に加え,初年度には4-CPU搭載のSMPマシン(SPARCアーキテクチャ,Solaris搭載),次年度以降も数台のPC(x86アーキテクチャ,Linux搭載)を導入し,PVMやMPIといった並列処理用のメッセージパッシングライブラリを利用して,並列実行環境の動作検証を行った. このような,各種の異なる性能レベル・アーキテクチャを有するマシンが混在するヘテロジニアスな並列実行環境において,主に性能重視の観点から,メッセージパッシングライブラリの標準仕様であるMPIを用いた並列プログラミングを行った.その際,データ分割とそれに伴うメッセージ通信パターンの特徴についての解析を行い,その過程を通して,同プログラミングパラダイムの有効性と妥当性について種々の角度からの考察を行った.しかし,MPIを利用してSPMD型の並列プログラミングを行うことは,性能を重視した場合には確かに有効であるものの,中規模以上のプログラムを作成する際の生産性が非常に低く,また,プログラムそのものの可読性も決して高いとは言えない.その一方で,論理共有型の並列プログラミングパラダイムの重要性がより明らかになり,その標準化に向けて,OpenMPの有用性と将来性に十分期待できることが判った. 本研究ではまた,並列プログラムを構成する複数のプロセス間での負荷の均衡化・最適化のための負荷分散手法についても考察し,具体的な新方式の提案を行った. さらに,高度並列処理で問題となる複数プロセス間での通信オーバヘッドの削減についても考察し,最も標準的なプロトコルであるTCP/IP上で良い効率を発揮する新たな通信ライブラリを開発した.
|