研究課題/領域番号 |
16K00510
|
研究種目 |
基盤研究(C)
|
配分区分 | 基金 |
応募区分 | 一般 |
研究分野 |
エンタテインメント・ゲーム情報学
|
研究機関 | 愛知工業大学 |
研究代表者 |
伊藤 雅 愛知工業大学, 情報科学部, 教授 (80221026)
|
研究協力者 |
伊藤 有人
川合 諒
山川 雄史
|
研究期間 (年度) |
2016-04-01 – 2019-03-31
|
キーワード | 囲碁アルゴリズム / プレイアウト / モダンヒューリスティックス / ニューラルネットワーク / 深層学習 / モンテカルロ木探索 / アクション値 |
研究成果の概要 |
囲碁アルゴリズムの主流はモンテカルロ木探索である。この探索手法は大量のプレイアウトを生成する。しかし、それらが再利用されることはない。そこで、過去のプレイアウト履歴からゲーム木を生成して最善手を導出する手法を提案した。 もうひとつ、深層学習とプレイアウトに基づく囲碁アルゴリズムを提案した。深層学習は多層畳み込みニューラルネットワークで実現した。ニューラルネットワークはモダンヒューリスティックスの代表的手法のひとつである。アルファ碁が提唱するロールアウトによる勝敗は使わず、この部分をプレイアウトで代用した。木探索のノード評価にはUCB1値ではなく、アルファ碁が提唱するアクション値を採用した。
|
自由記述の分野 |
システム最適化
|
研究成果の学術的意義や社会的意義 |
過去のプレイアウト履歴からゲーム木を作成して最善手を求める方法は詰碁のような狭い探索空間で有効に機能した。しかし、9路盤囲碁では完全に無効であった。アイデアは興味深いが、モンテカルロ木探索と同等以上の手法にはなり得ないことが判明した。 もうひとつの深層学習とプレイアウトに基づく囲碁アルゴリズムは少資源環境下で動作させることに成功した。既存のオープンソース囲碁に統計的に有意に勝利できることを確認した。Value-MCTSで必要となるノード展開閾値やMixingパラメータといった各種パラメータ値を適切に設定する必要があり、それらの調整は容易でない。さらに、実行時間の短縮という大きな課題も残った。
|