AI 的方法有許多,除了我們較為熟悉的“五大流派”,本文作者對 AI 的各流派進行細(xì)分,梳理了起碼 17 種方法,并用一張圖直觀地展現(xiàn)。作者說,各種 AI 方法并不平等,站錯隊可能導(dǎo)致自取滅亡。
“人工智能”是一個非常含糊的術(shù)語。這是因為人工智能(AI)是1955年在一種非常傲慢的情境下被創(chuàng)造出來的一個術(shù)語:
我們建議于1956年夏天在新罕布什爾漢諾威的達特茅斯學(xué)院進行一個為期2個月,10個人參加的人工智能研討會。
該研討會將基于如下設(shè)想進行:學(xué)習(xí)的每個方面或有關(guān)智能的其他特征原則上可以非常精確地進行描述,以至于能被機器模擬。我們將嘗試找到讓機器使用語言、形式抽象和概念的方式,解決現(xiàn)在只能由人類解決的問題,并提升人類智能。
——達特茅斯AI項目計劃提議書;J. McCarthy et al.; Aug. 31, 1955.
AI 經(jīng)歷了半個多世紀(jì),也帶上了太多其他學(xué)科的印記。在很長一段時間里,AI 被符號主義者統(tǒng)治。符號主義是一種基于規(guī)則的系統(tǒng),具有“零學(xué)習(xí)”(Zero Learning)特點。20世紀(jì)80年代,一種新的 AI 方法開始出現(xiàn),我們稱之為機器學(xué)習(xí)。最后,還有“簡單學(xué)習(xí)”(Simple Learning)。然而,在最近十年里,最大的變化是我們偶然發(fā)現(xiàn)了“深度學(xué)習(xí)”,而且它殺傷力極強,似乎無所不能。
當(dāng)然,這是一個非常簡化的 AI 歷史。實際上,AI 領(lǐng)域有許多不同的方法和流派。Pedro Domingo 在《終極算法》一書中描述了5個不同的 AI “學(xué)派”。一位名為 solidrocketfuel 的 Y Combinator 用戶不甘示弱,發(fā)了條帖子,說 AI 至少有“21 個不同的流派”。
對于任何計劃搞 AI 的人來說,一個非常重要的事情是了解 AI 的這些不同學(xué)派和方法之間之間的差異。AI 不是一個同質(zhì)的領(lǐng)域,而是不斷發(fā)生不同學(xué)派之間的爭議的領(lǐng)域。下圖是一個概況:
符號學(xué)派(Symbolists):是使用基于規(guī)則的符號系統(tǒng)做推理的人。大部分 AI 都圍繞著這種方法。使用 Lisp 和 Prolog 的方法屬于這一派,使用 SemanticWeb,RDF 和 OWL 的方法也屬于這一派。其中一個最雄心勃勃的嘗試是 Doug Lenat 在80年代開發(fā)的 Cyc,試圖用邏輯規(guī)則將我們對這個世界的理解編碼。這種方法主要的缺陷在于其脆弱性,因為在邊緣情況下,一個僵化的知識庫似乎總是不適用。但在現(xiàn)實中存在這種模糊性和不確定性是不可避免的。
進化學(xué)派(Evolutionists):是應(yīng)用進化的過程,例如交叉和突變以達到一種初期的智能行為的一派。這種方法通常被稱為遺傳算法(Genetic Algorithm,GA)。在深度學(xué)習(xí)中,GA 確實有被用來替代梯度下降法,所以它不是一種孤立的方法。這個學(xué)派的人也研究細(xì)胞自動機(cellular automata ),例如 Conway 的“生命游戲”和復(fù)雜自適應(yīng)系統(tǒng)(GAS)。
貝葉斯學(xué)派(Bayesians):是使用概率規(guī)則及其依賴關(guān)系進行推理的一派。概率圖模型(PGM)是這一派通用的方法,主要的計算機制是用于抽樣分布的蒙特卡羅方法。這種方法與符號學(xué)方法的相似之處在于,可以以某種方式得到對結(jié)果的解釋。這種方法的另一個優(yōu)點是存在可以在結(jié)果中表示的不確定性的量度。Edward 是一個將這種方法與深度學(xué)習(xí)相結(jié)合的庫。
核保守派(Kernel Conservatives):在深度學(xué)習(xí)之前,最成功的方法之一是 SVM。Yann LeCun 曾稱這種方法為模板匹配方法。該方法有一個被稱為核的技巧,可以使非線性分離問題變成線性問題。這一派的研究者喜歡他們的方法所具有的數(shù)學(xué)美感。他們認(rèn)為深度學(xué)習(xí)派只不過是煉金術(shù)士,在沒有對后果有所了解的情況下就念起咒語。
Tree Huggers :是使用基于樹的模型的人,例如隨機森林和梯度提升決策樹。這些本質(zhì)上都是邏輯規(guī)則樹,它們遞歸地分割域以構(gòu)建分類器。這種方法實際上在許多 Kaggle 比賽中都相當(dāng)有效。微軟提出的一種方法是將基于樹的模型與深度學(xué)習(xí)結(jié)合起來。
聯(lián)結(jié)學(xué)派(Connectionists):這一派的研究者相信智能起源于高度互聯(lián)的簡單機制。這種方法的第一個具體形式是出現(xiàn)于1959年的感知器。自那以后,這種方法消亡又復(fù)活了好幾次。其最新的形式是深度學(xué)習(xí)。
深度學(xué)習(xí)中包含許多子方法。包括:
The Canadian Conspirators :Hinton,LeCun,Bengio 等人,推崇無需人工進行特征工程的端到端深度學(xué)習(xí)。
Swiss Posse:基本上是 LSTM,以及兩種結(jié)合的 RNN 解決知覺的問題。根據(jù) LeCun 的說法,GAN 是“最近20世紀(jì)最酷的東西”,也被聲稱是這幫人發(fā)明的。
British AlphaGoist:這幫人相信,AI = 深度學(xué)習(xí) + 強化學(xué)習(xí),盡管 LeCun 稱強化學(xué)習(xí)只是蛋糕上的櫻桃。DeepMind 是這一派的主要支持者。
Predictive Learners:這個詞是 Yann LeCun 用來形容無監(jiān)督學(xué)習(xí)的,這是 AI 主要的一個未解決的領(lǐng)域。然而,我傾向于相信解決方案在于“元學(xué)習(xí)”(Meta-Learning)。
除了上面描述的主流方法外,還有一些不是特別主流的方法:
Compressionists:認(rèn)為認(rèn)知和學(xué)習(xí)就是壓縮(compression),這實際上也是其他學(xué)派共同的觀點。信息理論起源于關(guān)于壓縮的論證。這是一個普遍的概念,比所有經(jīng)常被濫用的集合統(tǒng)計工具更強大。
Complexity Theorists:這一派的人采用來自物理學(xué),基于能量的模型,復(fù)雜性理論,混沌理論和統(tǒng)計力學(xué)的方法。Swarm AI 可以說屬于這一派。如果任何團隊稱他們能找到深度學(xué)習(xí)為什么能起效的很好的解釋,那么他們可能是這一派的。
Fuzzy Logicians :這種方法曾經(jīng)很受歡迎,但最近比較少見。最近有一個使用模糊規(guī)則在 mock dogfight 中打敗一個戰(zhàn)斗機飛行員的研究。
Biological Inspirationalists:這一派傾向于創(chuàng)造更接近于生物學(xué)中的神經(jīng)元的模型。例子是 Numenta,pike-and-Integrate,以及 IBM 的 TrueNorth 芯片。
Connectomeist:這些人相信大腦的互連(即:Connectome)是智能的來源。有一個項目試圖復(fù)制一個虛擬的蠕蟲,也有一些得到雄厚資助的研究,試圖以這種方式映射大腦。
Information Integration Theorists:認(rèn)為意識來源于機器的內(nèi)部想象,反映了現(xiàn)實的因果關(guān)系。這一派的動機是,如果我們想要理解意識,那么我們至少需要開始思考意識。然而,我沒法在他們的方法中找到學(xué)習(xí)和意識的關(guān)系。在他們認(rèn)為,這兩者可能是不相關(guān)的。
PAC Theorists:這一派的人并不是真的想討論人工智能,而只是喜歡研究智能,因為至少他們承認(rèn)智能的存在。他們的整體思想是自適應(yīng)系統(tǒng)可以方便地執(zhí)行計算,其結(jié)果都能大致正確。簡言之,在他們看來智能不需要大規(guī)模的計算。
總而言之,這些 AI 的方法令人眼花繚亂。而且我確信還有我沒發(fā)現(xiàn)的別的方法。有些方法彼此水火不容,而另一些方法可以結(jié)合使用。但是,寫這篇文章我想指出的是,對這些眼花繚亂的方法都了解一點,有助于讓你在這個領(lǐng)域找到路徑。
最后,讓我們看看 Shivon Zilis 制作的《機器學(xué)習(xí)生態(tài)全景圖》:
機器學(xué)習(xí)生態(tài)全景圖 3.0 (來源:Oreilly)
有很多公司聲稱自己是 AI 公司,在搞 AI 研究。你需要向他們提一個直截了當(dāng)?shù)膯栴}。就是這些公司都在使用什么 AI 方法?因為這里面的一個嚴(yán)峻的現(xiàn)實是,并不是所有的 AI 都是平等的。換句話說,“有些 AI 比其他 AI 更平等”。我們的提議是,現(xiàn)在與深度學(xué)習(xí)相關(guān)的方法勢頭正猛。很簡單,因為它與學(xué)習(xí)有關(guān)。如果你的 AI 方法沒有一個強大的學(xué)習(xí)機制,那么注定是 Doug Lenat 那般的命運,也就是必須人工編寫所有規(guī)則!其他的方法往往都是死胡同。
最好的方法之一是將深度學(xué)習(xí)與其他算法相結(jié)合。AlphaGo 便是這樣,使用了蒙特卡洛樹搜索技術(shù)和深度學(xué)習(xí)的結(jié)合??紤]到符號學(xué)的方法與深度學(xué)習(xí)具有互補的優(yōu)勢和弱點,它們的結(jié)合也是非常有前途的。展望未來,將是深度學(xué)習(xí)一統(tǒng) AI 之天下。不過,深度學(xué)習(xí)與其他 AI 方法相結(jié)合同樣有前途。不要忽視這個現(xiàn)實,否則只會自取滅亡。
(審核編輯: 林靜)
分享