CGI (圍棋軟體)
原作者 |
|
---|---|
開發者 | 國立交通大學資訊工程系電腦遊戲與智慧實驗室 |
类型 | 圍棋軟體 |
网站 |
CGI(英語:CGI Go Intelligence[2][1])是由國立交通大學資訊工程學系吳毅成教授所帶領的團隊所開發的圍棋軟體。
簡介
[编辑]從2008年開始發展,一開始名稱為HappyGo,之後大幅改寫時改名為Amigo,但因Amigo與其他圍棋軟體名稱衝突,在後來改名時以實驗室的名字為基礎,改名為CGI並使用至今[1]。其中CGI為CGI Go Intelligence的递归缩写,指的是「CGI實驗室圍棋智慧」[2][1]。
於2017年年底與棋城合作,推出業餘七段棋力的對弈服務[3]。
演進
[编辑]HappyGo
[编辑]2008年到2011年的版本,以作者王永樂的暱稱Happy為名,僅支援9x9的棋盤[1]:
Amigo
[编辑]2012年到2014年的版本,這個版本將蒙特卡洛树搜索(MCTS)的平行運算框架化,以便於用在其他軟體上[1]。這個版本雖然可以進行19x19棋盤對弈,但只是實做而沒有最佳化,所以非常的弱[1]:
- 實做蒙特卡洛树搜索(MCTS)的平行運算框架。
- 支援平行運算。
CGI 1.0
[编辑]2015年一月到十二月的版本,除了採用了蒙特卡洛树搜索(MCTS)外,還包括了MM algorithm[2][1]:
- 利用很多人為定義的特性進行學習。
- 利用progressive bias、progressive widening以及動態貼目改善蒙特卡洛树搜索(MCTS)。
CGI 2.0
[编辑]2015年十二月到2016年八月的版本,這個版本引入了深度卷积神经网络(DCNN)使得棋力大幅增強。在引入的初期採用Detlef Schmicker所提供的資料,在2016一月後採用自己訓練的資料[2][1]:
- 使用監督式學習策略神經網路(英語:Supervised Learning policy network),這個版本還沒有使用强化学习策略策略神經網路(英語:Reinforcement Learning policy network)以及價值神經網路(英語:Value Network)。
CGI 3.0
[编辑]2016年八月後的版本,在這個版本因為AlphaGo論文的出現而有了巨大的改動,使得實力大幅進步,能在不讓子的對弈中與職業棋士較勁[2][1]:
- 引入監督式學習策略神經網路(英語:Supervised Learning policy network)
- 引入強化學習策略神經網路(英語:Reinforcement Learning policy network)
- 引入價值網路(英語:Value Network)[4]
- 改善蒙特卡洛树搜索(MCTS)內的快速走子(英語:Rollout)
- 支援分散式計算
CGI 4.0
[编辑]2018年十二月的版本,這個版本能提供四十個穩定棋力等級之圍棋程式,最高棋力與ELF OpenGo棋力相當[5]。
成績
[编辑]HappyGo
[编辑]對電腦
[编辑]- 2009年TAAI,9x9第四名[1]。
- 2010年ICGA,9x9第八名[1]。
- 2010年TAAI,9x9第二名[1]。
- 2011年TAAI,9x9第五名[1]。
- 2013年TCGA,9x9第二名[1]。
Amigo
[编辑]對電腦
[编辑]CGI 1.0
[编辑]對電腦
[编辑]對人
[编辑]賽事皆為IEEE CIG 2015:
黑 | 白 | 讓子 | 貼目 | 結果 | 備註 |
---|---|---|---|---|---|
CGI | 俞俐均(職業一段) | 6 | 0.5 | B+Res[6][2][1] | |
CGI | Chi Chang(業餘5段) | 2 | 0.5 | W+Res[6] | |
CGI | 周俊勳(職業九段) | 6 | 6.5 | W+5.5[6][2][1] | |
CGI | 張凱馨(職業五段) | 6 | 0.5 | W+Res[6][2][1] |
CGI 2.0
[编辑]對電腦
[编辑]- 2016年UEC杯世界電腦圍棋大會,初賽第一名[7],決賽第六名[8][2][1]。
對人
[编辑]賽事皆為IEEE WCCI 2016:
黑 | 白 | 讓子 | 貼目 | 結果 | 備註 |
---|---|---|---|---|---|
CGI | 周平強(職業六段) | 2 | 0.5 | W+Res[9] | 七月24日 |
CGI | 周俊勳(職業九段) | 2 | 0.5 | W+Res[9][2][1] | |
蔡尚榮(業餘六段) | CGI | 2 | 0.5 | B+Res[9] | 七月25日 |
張盛舒(業餘六段) | CGI | 2 | 0.5 | B+Res[9] | 七月25日 |
CGI | 周平強(職業六段) | 2 | 0.5 | B+Res[9] | 七月25日 |
蔡尚榮(業餘6段) | CGI | 0 | 0.5 | W+Res[9] | 七月26日 |
張盛舒(業餘6段) | CGI | 2 | 0.5 | B+Res[9] | 七月26日 |
CGOS
[编辑]在CGOS上,CGI1407_1_475_7c
的BayesElo為3265分[10]。
CGI 3.0
[编辑]對電腦
[编辑]對人
[编辑]賽事為FUZZ-IEEE 2017:
黑 | 白 | 讓子 | 貼目 | 結果 | 備註 |
---|---|---|---|---|---|
CGI | 周俊勳(職業九段) | 0 | 7.5 | B+Res[14][15][2][1] | |
周俊勳(職業九段) | CGI | 0 | 7.5 | W+2.5[14][15][2][1] |
CGOS
[编辑]在CGOS上,CGI1900_4c
的BayesElo為3513分[10]。
參考文獻
[编辑]- ^ 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 1.12 1.13 1.14 1.15 1.16 1.17 1.18 1.19 1.20 1.21 1.22 1.23 1.24 1.25 1.26 1.27 1.28 1.29 Introduction to Go Programs Developed at CGI Lab. [2019-12-30]. (原始内容存档于2020-02-11).
- ^ 2.00 2.01 2.02 2.03 2.04 2.05 2.06 2.07 2.08 2.09 2.10 2.11 2.12 2.13 2.14 2.15 CGI Go Intelligence 介紹. 2017-11-02 [2017-12-22]. (原始内容存档于2019-02-15).
- ^ 特價、界面、AI. 棋城. 2017-12-22 [2017-12-23]. (原始内容存档于2017-12-23).
- ^ [1705.10701] Multi-Labelled Value Networks for Computer Go. 2017-05-30 [2017-12-22]. (原始内容存档于2017-12-23).
- ^ 圍棋終身學習系統 交大CGI計畫團隊之研究發表成果. 2018-12-18 [2019-12-30]. (原始内容存档于2019-12-27).
- ^ 6.0 6.1 6.2 6.3 Human vs. Computer Go Competition @ IEEE CIG 2015. [2017-12-23]. (原始内容存档于2017-07-07).
- ^ First-day results. [2017-12-22]. (原始内容存档于2017-05-17).
- ^ Second-day results. [2017-12-22]. (原始内容存档于2017-05-13).
- ^ 9.0 9.1 9.2 9.3 9.4 9.5 9.6 Human vs. Computer Go Competition @ IEEE WCCI 2016. [2017-12-23]. (原始内容存档于2017-08-01).
- ^ 10.0 10.1 19x19 All Time Ranks. [2018-01-10]. (原始内容存档于2018-01-17).
- ^ 1日目大会結果. [2017-12-22]. (原始内容存档于2017-09-12).
- ^ 2日目大会結果. [2017-12-22]. (原始内容存档于2017-09-22).
- ^ 2017/08/17 台灣 CGI 勇奪首屆世界智能圍棋賽亞軍. 海峰棋院. 2017-08-17 [2017-12-22]. (原始内容存档于2017-12-22).
- ^ 14.0 14.1 Machine Learning for Human Prediction and Application @ FUZZ-IEEE 2017. [2017-12-24]. (原始内容存档于2017-12-24).
- ^ 15.0 15.1 吳, 宛縈. CGI圍棋程式達高段職業棋士水準 擊敗紅面棋王. 今日新聞. 2017-07-13 [2017-12-24]. (原始内容存档于2017-12-25) (中文(臺灣)).
相關連結
[编辑]外部連結
[编辑]- CGI的Facebook專頁,目前的官方資訊頁面。
- 官方网站。(英文)