2010 Fiscal Year Annual Research Report
一般化かんばん方式とニューロDPによるSCMの最適化に関する研究
Project/Area Number |
20510148
|
Research Institution | Aichi Institute of Technology |
Principal Investigator |
大野 勝久 愛知工業大学, 経営学部, 教授 (50026118)
|
Co-Investigator(Kenkyū-buntansha) |
田村 隆善 名古屋工業大学, 工学研究科, 教授 (70093101)
中出 康一 名古屋工業大学, 工学研究科, 教授 (50207825)
岩瀬 雅治 文京学院大学, 経営学部, 非常勤講師 (70213288)
鈴木 達夫 愛知工業大学, 経営学部, 教授 (00064949)
近藤 高司 愛知工業大学, 経営学部, 教授 (60121357)
|
Keywords | サプライチェーンの最適制御 / ニューロDPアルゴリズム / かんばん方式の最適設定 / シミュレーション / マルコフ決定過程 / 確率最適制御 / 強化学習 / 近似DP |
Research Abstract |
本研究は,現実の多品目多段階サプライチェーンの準最適発注・生産・配送政策を計算できるニューロDP(dynamic programming)アルゴリズムを開発することを目標とする。この問題はDPの一分野であるマルコフ決定過程(MDP)として定式化できるが,DPの持つ弱点である「次元の呪い」のため多品目多段階問題を解くことは不可能であった。実際,「次元の呪い」を克服する目的で開発されてきた,強化学習や近似DPアルゴリズムでは1品種1段階問題さえ解けなかった。 10年ほど前から研究代表者等は,MDPの古典アルゴリズムであるMPIMにシミュレーションを併用するニューロDPアルゴリズムSBMPIM(simulation-based modified policy iteration method)を提案し,日本経営工学会誌等で公表してきたが,強化学習で解けない問題は簡単に解けるものの,1品日3段階問題を解くには至らなかった。そのためSBMPIMの改良を進め,3段階問題を解いてプル方式の性能比較を行った,本研究の出発点となるSBMPIMの論文が現在European J. Oper. Res.で印刷中である。しかし,多品目多段階問題を解くには至っていない。 本研究は,当初このSBMPIMの基準政策として,プル方式中で最良の性能を持つ一般化かんばん方式を採用して開発を進めてきた。しかし相性が悪く,途中からかんばん方式を最適設定し,それをシミュレーションすることで相対値を推定して,所期の性能を持つSBMPIMアルゴリズムを開発することができた。すなわち,計算時間を従来のSBMPIMの1/100に短縮し,必要メモリーも大幅に減らすことができた。この成果の一部は数理解析研究所考究録で公表している。しかし,目標とする現実問題を解くにはさらなるブレークスルーが必要である。
|
Research Products
(6 results)