在象棋和國(guó)旗象棋中,電腦軟體都非常厲害,只有圍棋是唯一“電腦贏不過(guò)人類”的項(xiàng)目。而今年1月份有個(gè)爆炸性的新聞:Google DeepMind 開(kāi)發(fā)的人工智慧程式 AlphaGo 以5:0比數(shù)壓倒性擊敗了歐洲圍棋冠軍、專業(yè)二段棋手。并且3月份 AlphaGo 將會(huì)和韓國(guó)九段、世界冠軍李世石進(jìn)行對(duì)弈。如果此役 AlphaGo 獲勝,將意味著人工智慧真正里程碑式的勝利。
這也引起了筆者的好奇心,在春節(jié)期間,跟 Facebook 的田淵棟(他的背景無(wú)可挑剔,卡內(nèi)基梅隆大學(xué)機(jī)器人系博士,Alphabet X 無(wú)人車核心團(tuán)隊(duì),F(xiàn)acebook 人工智慧組研究員)交流,他做的也是計(jì)算機(jī)圍棋 AI --黑暗森林(熟悉《三體》的朋友知道怎幺回事),今年1月份他的文章被機(jī)器學(xué)習(xí)頂級(jí)會(huì)議 ICLR 2016 接受,(表達(dá)學(xué)習(xí)在江湖上稱作深度學(xué)習(xí)或者特徵學(xué))已在機(jī)器學(xué)習(xí)社群開(kāi)闢了自己的江山,成為學(xué)術(shù)界的新寵。
他談到自從Google收購(gòu)了DeepMind,投入大量資源去做好人工智慧專案,不為別的,就是要向世界證明Google智慧的強(qiáng)大。發(fā)表在頂級(jí)期刊《Nature》的論文光看作者就20個(gè),明顯是下了血本,前兩位都是計(jì)算機(jī)圍棋界的權(quán)威,第一,銀鴻是計(jì)算機(jī)圍棋和強(qiáng)化學(xué)習(xí)的頂級(jí)專家,整個(gè)博士論文主題就是圍棋;第二,阿哈黃以前寫過(guò)多年圍棋軟體,自己又是AGA6D的水平。
還是不多說(shuō)廢話,下面是SpinPunch CTO對(duì)AlphaGo的工作原理解讀,原文見(jiàn)參考資料。
Google DeepMind宣布他們研發(fā)的神經(jīng)網(wǎng)絡(luò)圍棋AI──AlphaGo,戰(zhàn)勝了人類職業(yè)選手。這篇論文由銀鴻等人完成。其中的技術(shù)是出乎意料地簡(jiǎn)單而強(qiáng)大。為了讓不熟悉的讀者更容易理解,以下是我對(duì)系統(tǒng)工作原理的解讀。
深度學(xué)習(xí)“深度學(xué)習(xí)”是指多層的人工神經(jīng)網(wǎng)絡(luò)和訓(xùn)練它的方法。一層神經(jīng)網(wǎng)絡(luò)會(huì)把大量矩陣數(shù)字輸入,通過(guò)非線性激活方法取權(quán)重,再產(chǎn)生另一個(gè)數(shù)據(jù)集合作為輸出。
這就像生物神經(jīng)大腦的工作機(jī)理一樣,透過(guò)合適的矩陣數(shù)量,多層組織鏈接一起,形成神經(jīng)網(wǎng)絡(luò)“大腦”進(jìn)行精準(zhǔn)複雜的處理,就像人們識(shí)別物體、標(biāo)注圖片一樣。
雖然神經(jīng)網(wǎng)絡(luò)在幾十年前就有了,直到最近才浮出檯面。這是因?yàn)樗麄冃枰罅康?ldquo;訓(xùn)練”去發(fā)現(xiàn)矩陣中的數(shù)字價(jià)值。對(duì)早期研究者來(lái)說(shuō),想要獲得不錯(cuò)效果的最小量測(cè)試,都遠(yuǎn)遠(yuǎn)超過(guò)計(jì)算能力和能提供的數(shù)據(jù)的大小。但最近幾年,一些能獲取大量資源的團(tuán)隊(duì)重現(xiàn)挖掘神經(jīng)網(wǎng)絡(luò),其實(shí)就是透過(guò)“大數(shù)據(jù)”來(lái)使測(cè)試更有效率。
兩個(gè)大腦AlphaGo是透過(guò)兩個(gè)不同神經(jīng)網(wǎng)絡(luò)“大腦”合作來(lái)優(yōu)化下棋程式。這些大腦是多層神經(jīng)網(wǎng)絡(luò),跟Google圖片搜索引擎識(shí)別圖片原理相似。它們從多層啟發(fā)式二維過(guò)濾器開(kāi)始,去處理圍棋棋盤的定位,就像圖片分類器網(wǎng)絡(luò)處理圖片一樣。經(jīng)過(guò)過(guò)濾,13個(gè)完全連接的神經(jīng)網(wǎng)絡(luò)層產(chǎn)生對(duì)它們看到的局面判斷。這些層能夠做分類和邏輯推理。
這些網(wǎng)絡(luò)透過(guò)反覆運(yùn)算來(lái)檢查結(jié)果,再去校對(duì)調(diào)整參數(shù),去讓下次執(zhí)行更好。這個(gè)處理器有大量的隨機(jī)性元素,所以我們是不可能精確知道網(wǎng)絡(luò)是如何“思考”的,但更多的運(yùn)算后能讓它進(jìn)化到更好。
第一大腦:落子選擇器(行動(dòng)機(jī)械手)AlphaGo的第一個(gè)神經(jīng)網(wǎng)絡(luò)大腦是“監(jiān)督式學(xué)習(xí)的策略網(wǎng)絡(luò)(政策網(wǎng)絡(luò))”,觀察棋盤布局企圖找到最佳的下一步。事實(shí)上,它預(yù)測(cè)每一個(gè)合理下一步的最佳概率,你可以想像成“落子選擇器”。
落子選擇器是怎幺看到棋盤的?數(shù)字呈現(xiàn)出最強(qiáng)人類選手會(huì)下在哪些地方的可能性。
團(tuán)隊(duì)透過(guò)在KGS(網(wǎng)路圍棋對(duì)戰(zhàn)平臺(tái))上最強(qiáng)人類對(duì)手、百萬(wàn)級(jí)的對(duì)弈落子去訓(xùn)練大腦。這就是AlphaGo最像人的地方,目標(biāo)是去學(xué)習(xí)那些頂尖高手的妙手。不是為了贏棋,而是去找一個(gè)跟人類高手同樣的下一步落子。AlphaGo落子選擇器能正確符合57%的人類高手。(不符合的不是意味著錯(cuò)誤,有可能是人類自己犯的失誤)
更強(qiáng)的落子選擇器AlphaGo系統(tǒng)事實(shí)上需要兩個(gè)額外落子選擇器的大腦。一個(gè)是“強(qiáng)化學(xué)習(xí)的策略網(wǎng)絡(luò)(策略Network)”,通過(guò)百萬(wàn)級(jí)額外的模擬局來(lái)完成。比起基本的訓(xùn)練,只是教程式去模仿單一人類的落子,高級(jí)的運(yùn)算訓(xùn)練會(huì)與每一個(gè)模擬棋局下到底,教程式最可能贏的下一步棋。 Sliver團(tuán)隊(duì)通過(guò)更強(qiáng)的落子選擇器總結(jié)了百萬(wàn)級(jí)訓(xùn)練棋局,比他們之前版本又強(qiáng)化了不少。
單單用這種落子選擇器就已經(jīng)是強(qiáng)大的對(duì)手了,可以到業(yè)余棋手的水平,或者說(shuō)跟之前最強(qiáng)的圍棋AI媲美。這里重點(diǎn)是這種落子選擇器不會(huì)去“讀”。它就是簡(jiǎn)單審視從單一棋盤位置,再提出從那個(gè)位置分析出來(lái)的落子。它不會(huì)去模擬任何未來(lái)的走法。這展示了簡(jiǎn)單的深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的力量。
更快的落子選擇器AlphaGo當(dāng)然團(tuán)隊(duì)沒(méi)有在這里止步。下面我會(huì)闡述是如何將閱讀能力賦予AI的。為了做到這一點(diǎn),他們需要更快版本的落子選擇器大腦。越強(qiáng)的版本耗時(shí)越久──不過(guò)為了產(chǎn)生一個(gè)不錯(cuò)的落子也夠快了,但“閱讀結(jié)構(gòu)”需要去檢查幾千種落子可能性才能做決定。
Sliver團(tuán)隊(duì)建立簡(jiǎn)單的落子選擇器去做出“快速閱讀”的版本,他們稱之為“滾動(dòng)網(wǎng)絡(luò)”。簡(jiǎn)單版本是不會(huì)看整個(gè)19 * 19的棋盤,但會(huì)在對(duì)手之前下的和新下的棋子中考慮,觀察一個(gè)更小的窗口。去掉部分落子選擇器大腦會(huì)損失一些實(shí)力,但輕量級(jí)版本能夠比之前快1000倍,這讓“閱讀結(jié)構(gòu)”成了可能。
第二大腦:棋局評(píng)估器(位置計(jì)算器)AlphaGo的第二個(gè)大腦相對(duì)于落子選擇器是回答另一個(gè)問(wèn)題。不是去猜測(cè)具體下一步,它預(yù)測(cè)每一個(gè)棋手贏棋的可能,在給定棋子位置情況下。這“局面評(píng)估器”就是論文中提到的“價(jià)值網(wǎng)絡(luò)(價(jià)值Network)”,通過(guò)整體局面判斷來(lái)輔助落子選擇器。這個(gè)判斷僅僅是大概的,但對(duì)于閱讀速度提高很有幫助。通過(guò)分類潛在的未來(lái)局面的“好”與“壞”,AlphaGo能夠決定是否通過(guò)特殊變種去深入閱讀。如果局面評(píng)估器說(shuō)這個(gè)特殊變種不行,那幺AI就跳過(guò)閱讀在這一條線上的任何更多落子。
局面評(píng)估器是怎幺看這個(gè)棋盤的,深藍(lán)色表示下一步有利于贏棋的位置。
局面評(píng)估器也通過(guò)百萬(wàn)級(jí)別的棋局做訓(xùn)練.Silver團(tuán)隊(duì)通過(guò)複製兩個(gè)AlphaGo的最強(qiáng)落子選擇器,精心挑選隨機(jī)樣本創(chuàng)造了這些局面。
這里AI落子選擇器在高效創(chuàng)建大規(guī)模數(shù)據(jù)集去訓(xùn)練局面評(píng)估器是非常有價(jià)值的。這種落子選擇器讓大家去模擬繼續(xù)往下走的很多可能,從任意給定棋盤局面去猜測(cè)大致的雙方贏棋概率。而人類的棋局還不夠多恐怕難以完成這種訓(xùn)練。
增加閱讀這里做了三個(gè)版本的落子選擇大腦,加上局面評(píng)估大腦,AlphaGo可以有效去閱讀未來(lái)走法和步驟了。閱讀跟大多數(shù)圍棋AI一樣,透過(guò)蒙特卡洛樹(shù)搜索(MCTS)算法來(lái)完成。但AlphaGo比其他AI都要聰明,能夠更加智慧的猜測(cè)哪個(gè)變種去探測(cè),需要多深去探測(cè)。
蒙特卡洛樹(shù)搜索算法如果擁有無(wú)限的計(jì)算能力,MCTS可以理論上去計(jì)算最佳落子透過(guò)探索每一局的可能步驟。但未來(lái)走法的搜索空間對(duì)于圍棋來(lái)說(shuō)太大了(大到比我們認(rèn)知宇宙里的粒子還多),實(shí)際上AI沒(méi)有辦法探索每一個(gè)可能的變種.MCTS做法比其他AI有多好的原因是在識(shí)別有利的變種,這樣可以跳過(guò)一些不利的。
銀鴻團(tuán)隊(duì)讓AlphaGo裝上MCTS系統(tǒng)的模組,這種框架讓設(shè)計(jì)者去嵌入不同的功能去評(píng)估變種。最后馬力全開(kāi)的AlphaGo系統(tǒng)按以下方式使用了這些大腦。
從當(dāng)前的棋盤布局,選擇哪些下一步的可能性。他們用基礎(chǔ)的落子選擇器大腦(他們嘗試使用更強(qiáng)的版本,但卻讓AlphaGo更弱,因?yàn)檫@沒(méi)有讓MCTS提供更廣闊的選擇空間)。它只集中在“明顯最好”的落子,而不是去選擇也許對(duì)后來(lái)有利的下法。
對(duì)于每一個(gè)可能的落子,有兩種評(píng)估方式:要不用棋盤上局面評(píng)估器在落子后,要不運(yùn)行更深入的蒙特卡羅模擬器去思考未來(lái)的落子,使用快速閱讀的落子選擇器去提高搜索速度。 AlphaGo使用簡(jiǎn)單的參數(shù)──“混合相關(guān)係數(shù)”,將每一個(gè)猜測(cè)取權(quán)重。最大馬力的AlphaGo使用50/50的混合比,使用局面評(píng)估器和模擬化滾動(dòng)去做平衡判斷。
這篇論文包含一個(gè)隨著他們使用插件的不同,AlphaGo的能力變化和上述步驟的模擬。若僅使用獨(dú)立大腦,AlphaGo跟最好的計(jì)算機(jī)圍棋AI差不多強(qiáng),但當(dāng)使用這些綜合手段,就可能到達(dá)職業(yè)選手水平。
AlphaGo的能力變化與MCTS的插件是否使用有關(guān)。
這篇論文還詳細(xì)講了一些工程優(yōu)化:分布式計(jì)算,網(wǎng)絡(luò)計(jì)算機(jī)去提升MCTS速度,但這些都沒(méi)有改變基礎(chǔ)算法。這些算法部分精確,部分近似。在特別情況下,AlphaGo透過(guò)更強(qiáng)的計(jì)算能力變得更強(qiáng),但計(jì)算單元的提升率隨著性能變強(qiáng)而減緩。
優(yōu)勢(shì)和劣勢(shì)
我認(rèn)為AlphaGo在小規(guī)模戰(zhàn)術(shù)上會(huì)非常厲害。它知道通過(guò)很多位置和類型找到人類最好的下法,所以不會(huì)在給定小範(fàn)圍的戰(zhàn)術(shù)條件下犯明顯錯(cuò)誤。
但是,AlphaGo有個(gè)弱點(diǎn)在全局判斷上。它看到棋盤式通過(guò)5 x 5金字塔式的過(guò)濾,這樣對(duì)于集成戰(zhàn)術(shù)小塊變成戰(zhàn)略整體上帶來(lái)麻煩,同樣道理,圖片分類神經(jīng)網(wǎng)路往往對(duì)包含一個(gè)東西和另一個(gè)的搞不清。比如說(shuō)圍棋在角落上一個(gè)定式造成一個(gè)墻或者引徵,這會(huì)劇烈改變另一個(gè)角上的位置估值。
就像其他的基于MCTS的AI,AlphaGo對(duì)于需要很深入閱讀才能解決的大勢(shì)判斷上,還是麻煩重重的,比如說(shuō)大龍生死劫。 AlphaGo對(duì)一些故意看起來(lái)正常的局也會(huì)失去判斷,天元開(kāi)盤或者少見(jiàn)的定式,因?yàn)楹芏嘤?xùn)練是基于人類的棋局庫(kù)。
我還是很期待看到AlphaGo和李世石9段的對(duì)決!我預(yù)測(cè)是:如果李使用直(straight)式,就像跟其他職業(yè)棋手的對(duì)決,他可能會(huì)輸,但如果他讓AlphaGo陷入到不熟悉的戰(zhàn)略情形下,他可能就贏。
以上為原文結(jié)束分割線,以下為筆者個(gè)人感想。
這里我還想到另一個(gè)人,中國(guó)最強(qiáng)大腦選手鮑橒,當(dāng)時(shí)看了他走出蜂巢迷宮,被他的超強(qiáng)的空間記憶和想像能力深深震撼了,而他的職業(yè)就是圍棋選手,并且是盲棋。他能完成1對(duì)5的圍棋盲棋,實(shí)在是很不可思議的事情。
在圍棋圈內(nèi),幾乎沒(méi)有棋手能完成盲棋,因?yàn)榇_實(shí)太難了。筆者也向他詢問(wèn)了對(duì)這個(gè)事情看法,他說(shuō),歐洲冠軍沒(méi)能摸到程式的底,但從棋譜來(lái)說(shuō),對(duì)Google程式我也難以取勝,確實(shí)下的不錯(cuò)。雖然圍棋圈一致看好李世石,不過(guò)我不敢確定Google的程式3月份進(jìn)展到什幺地步。
再說(shuō)到Facebook的田博士,跟google DeepMind超豪華團(tuán)隊(duì)長(zhǎng)期投入不同,他就在半年多前從立項(xiàng)到實(shí)現(xiàn),直到最近才有一個(gè)實(shí)習(xí)生加入幫他,而背后是他付出的心血,為了搶時(shí)間,在圣誕新年都是加班加點(diǎn),按他所說(shuō),每日工作10+小時(shí),自己搭機(jī)器,寫程式,調(diào)參數(shù),單槍匹馬做出成績(jī)。
談到跟Google團(tuán)隊(duì)的較量,田博士說(shuō):“這是一場(chǎng)必?cái)〉膽?zhàn)斗”,但我還是很佩服他,他讓我想到三國(guó)時(shí)代趙子龍,單槍匹馬大戰(zhàn)曹軍,力拔山兮氣蓋世!因?yàn)樗钦嬲挠率俊?/p>
正是有了這些英勇無(wú)畏的科學(xué)家,一次次打破常規(guī),挑戰(zhàn)極限,我們才知道人類如此大的潛力。最近短短幾年的發(fā)展,從大數(shù)據(jù),深度學(xué)習(xí)人工智慧到虛擬實(shí)境,從發(fā)現(xiàn)了類地球行星,證實(shí)重力波,從Hyperloop,無(wú)人駕駛,量子計(jì)算,這些魅力無(wú)窮的科技讓我們對(duì)世界的認(rèn)識(shí)上升到新的高度。面對(duì)這個(gè)激動(dòng)人心的時(shí)代,我想說(shuō),天空是我們的極限,宇宙是我們的極限,未來(lái)才是我們的極限!
最后允許我拿田博士的話來(lái)結(jié)束。
我有時(shí)候會(huì)問(wèn)自己:“我是不是背棄了夢(mèng)想”我想除了我自己,任何人都不會(huì)給我答案,任何評(píng)論也不具效力。我記得有人問(wèn)過(guò),如果夢(mèng)想從踐行的一開(kāi)始,就在不自覺(jué)地向現(xiàn)實(shí)妥協(xié),那樣的夢(mèng)想還是最初的夢(mèng)想嗎?其實(shí),這樣的問(wèn)題沒(méi)什幺可糾結(jié)的,因?yàn)槭澜鐝膩?lái)就不是二元的,夢(mèng)想和現(xiàn)實(shí),如同高懸的日月,日月之間,有一條灰色的路,在自己腳下蜿蜒曲折,繞過(guò)各種險(xiǎn)阻,一直向前。
而我能做的,只是要在奔跑時(shí),不停提醒自己,還記得“夢(mèng)想”這個(gè)詞的含義。
文章來(lái)源:機(jī)房監(jiān)控 http://www.fmsnw.com
專線:劉剛 13911133352
E-mail:[email protected]
北京金恒智能系統(tǒng)工程技術(shù)有限責(zé)任公司 版權(quán)所有 Copyright 2007-2020 by Create-china.com.cn Inc. All rights reserved.
法律聲明:未經(jīng)許可,任何模仿本站模板、轉(zhuǎn)載本站內(nèi)容等行為者,本站保留追究其法律責(zé)任的權(quán)利!
電話:86+10-62104277/2248/4249 傳真:86+10-62104193-819 京ICP備10010038號(hào)-2網(wǎng)站XML
智慧機(jī)房
在線體驗(yàn)