時至今日,人工智能研究已經(jīng)在從語音識別到圖像分類,再到基因組學(xué)乃至藥物發(fā)現(xiàn)等各個領(lǐng)域取得快速發(fā)展。而其中大多數(shù)場景原本都是需要投入大量人力資源與數(shù)據(jù)的專業(yè)系統(tǒng)。
然而,對于一部分特定問題,利用人類知識加以解決則往往成本過高——包括不夠可靠或者根本無法承擔(dān)如此龐大的工作量等。中培趙老師指出,AI 研究的長期目標(biāo)在于繞過人為階段,而是創(chuàng)造算法,最終在無需人類介入的前提下立足各類挑戰(zhàn)性領(lǐng)域?qū)崿F(xiàn)超越人類的成效表現(xiàn)。在最近發(fā)表于《自然》雜志的論文當(dāng)中,DeepMind 展現(xiàn)了邁向這一目標(biāo)的重要一步。
關(guān)注人工智能的落地實踐,與企業(yè)一起探尋AI的邊界,AICon全球人工智能技術(shù)大會火熱售票中,6折倒計時一周搶票,詳情點擊:
從零開始
這篇論文介紹了 AlphaGo Zero,即 AlphaGo 的最新發(fā)展成果、亦是第一款能夠在圍棋這種古老的中國競技項目當(dāng)中擊敗世界冠軍的計算機程序。Zero 則更為強大,可以說是有史以來最卓越的圍棋棋手。
AlphaGo 之前的各個版本最初由數(shù)千名業(yè)余及專業(yè)圍棋棋手進行訓(xùn)練,借以學(xué)習(xí)圍棋的規(guī)則與技巧。AlphaGo Zero 則路過了這一步,其能夠從完全隨機的對弈開始自行學(xué)習(xí)規(guī)則。在這樣的前提之下,Zero 很快即超過了人類的棋藝水平,并以 100 比 0 的成績迅速擊敗上一代“世界冠軍”AlphaGo。
其之所以能夠取得如此優(yōu)秀的成績,是因為 AlphaGo Zero 利用一種全新強化學(xué)習(xí)形式實現(xiàn)“自為自師”。該系統(tǒng)最初只是一套完全不了解圍棋游戲規(guī)則的神經(jīng)網(wǎng)絡(luò)。在此之后,通過將該神經(jīng)網(wǎng)絡(luò)與強大的搜索算法相結(jié)合,即可進行自我對戰(zhàn)。在對弈過程當(dāng)中,該神經(jīng)網(wǎng)絡(luò)經(jīng)歷高速與更新,從而預(yù)測接下來的最佳行動并最終在游戲中勝出。
這套經(jīng)過更新的神經(jīng)網(wǎng)絡(luò)隨后與搜索算法進行重組,借以創(chuàng)建新的、更為強大的 AlphaGo Zero 版本,這一過程將周而復(fù)始不斷進行。在每一次迭代當(dāng)中,系統(tǒng)成效都將迎來小幅提升,并使得 AlphaGo Zero 變得棋力愈盛、神經(jīng)網(wǎng)絡(luò)本身也越來越精確。
這項技術(shù)之所以比原本的 AlphaGo 更為強大,是因為其不再受限于人類的知識水平。相反,其能夠像一張白紙般從世界上最強的棋手——AlphaGo——身上學(xué)習(xí)技巧。
另外,Zero 與初版 AlphaGo 相比還擁有以下不同之處。 AlphaGo Zero 僅使用圍棋棋盤上的黑白棋子作為輸入信息,而 AlphaGo 的以往版本仍包含少量手動設(shè)計功能。
其僅采用單一神經(jīng)網(wǎng)絡(luò),而非像初版 AlphaGo 那樣使用兩套。AlphaGo 的各早期版本利用一套“策略網(wǎng)絡(luò)”選擇下一步行動,另外配合一套“價值網(wǎng)絡(luò)”以預(yù)測各個點位對游戲結(jié)果的影響。二者在 AlphaGo Zero 當(dāng)中并合而為一,使其能夠更為高效地實現(xiàn)訓(xùn)練與評估。
AlphaGo Zero 并不使用“推演”——即常見于其它圍棋程序當(dāng)中,根據(jù)現(xiàn)有盤面局勢進行結(jié)果預(yù)測的快速隨機對弈流程。相反,其依賴于高質(zhì)量神經(jīng)網(wǎng)絡(luò)以評估當(dāng)前盤面形勢。
上述差異的存在有助于提升系統(tǒng)成效并令其具備更為理想的通用能力。而在另一方面,算法的改變也令系統(tǒng)本身更為強大且高效。
隨著硬件性能的提升以及近期算法的持續(xù)改進,AlphaGo 的效率正在不斷突破新高。
僅僅在三天的自我對弈之后,AlphaGo Zero 就已經(jīng)以 100 比 0 的結(jié)果強勢擊敗了此前發(fā)布的 AlphaGo 版本——而后者曾經(jīng)擊敗 18 項世界冠軍頭銜擁有者李世石。經(jīng)過 40 天的自我訓(xùn)練之后,AlphaGo Zero 變得更為強大,且全面碾壓此前曾擊敗全球最強棋手柯杰的 AlphaGo“Master”版本。
Elo 評分——一項用于衡量競爭性游戲(例如圍棋)中選手相對技能水平的指標(biāo),其結(jié)果顯示出 AlphaGo 在發(fā)展過程當(dāng)中如何逐步走向強大。
在數(shù)百萬場 AlphaGo 對 AlphaGo 的比賽當(dāng)中,這套系統(tǒng)從零開始逐步掌握了圍棋技巧,并在短短數(shù)天時間中積累到了數(shù)千年孕育而來的人類知識。AlphaGo Zero 亦從中發(fā)現(xiàn)更多新適度,制定出更多非常規(guī)型策略以及創(chuàng)新下法,這進一步反映甚至超越了此前 AlphaGo 在對陣李世石與柯杰時所發(fā)揮出的水平。
這些創(chuàng)造性的時刻讓我們相信,人工智能終將為人類帶來更為強大的創(chuàng)造力,從而幫助我們解決人類所面臨的一系列最為重要的挑戰(zhàn)。
發(fā)現(xiàn)新知識
盡管尚處于早期發(fā)展階段,但 AlphaGo Zero 已經(jīng)成為邁向這一目標(biāo)的關(guān)鍵性一步。如果能夠?qū)㈩愃频募夹g(shù)應(yīng)用于其它結(jié)構(gòu)化問題當(dāng)中——例如蛋白質(zhì)折疊、能源消耗控制或者發(fā)現(xiàn)革命性新材料等等,那么這些突破無疑將對整個人類社會產(chǎn)生積極的推動作用。
想了解更多IT資訊,請訪問中培偉業(yè)官網(wǎng):中培偉業(yè)