人工智能的話題,最近因谷歌公司一場(chǎng)商業(yè)炒作“圍棋人機(jī)大戰(zhàn)”而再次大熱起來(lái)。各種不同的看法紛紛表達(dá),其中既有天真糊涂的想法,也有居心難測(cè)的說(shuō)法。為了厘清思路,有必要就下面五點(diǎn)進(jìn)行認(rèn)真思考。
五個(gè)人工智能認(rèn)知誤區(qū) 小心煙霧彈
一、“老虎還小”不構(gòu)成養(yǎng)虎的理由
當(dāng)人們表達(dá)對(duì)人工智能將來(lái)失控或危害人類的擔(dān)憂時(shí),經(jīng)常見(jiàn)到人工智能業(yè)界人士,或是對(duì)科學(xué)技術(shù)盲目崇拜、盲目樂(lè)觀的科學(xué)主義人士出來(lái)說(shuō):人工智能目前還很初級(jí)很弱小,所以不必憂慮云云。這種說(shuō)法常見(jiàn)于媒體,其實(shí)背后暗含著荒謬的邏輯。
我們擔(dān)心老虎吃人,所以有“養(yǎng)虎遺患”的成語(yǔ),怎么能用“老虎還小”作為養(yǎng)虎的理由呢?要說(shuō)服人們同意養(yǎng)虎,必須論證“老虎不會(huì)吃人”。人們擔(dān)憂的是人工智能未來(lái)對(duì)人類的危害,要打消這個(gè)擔(dān)憂,就必須論證“人工智能不會(huì)危害人類”,而不能將“人工智能還很初級(jí)”作為理由。
先不忙取笑這條荒謬的理由,因?yàn)樵S多人工智能的業(yè)界大佬和知名人物,都曾向公眾說(shuō)過(guò)這條理由。當(dāng)史蒂芬·霍金、比爾·蓋茨和伊隆·馬斯克這樣的智者領(lǐng)銜呼吁世人警惕人工智能的盲目研發(fā)時(shí),一名業(yè)界知名人物就拿這條理由來(lái)反駁,還說(shuō)這三人是“愚蠢的”。這就有點(diǎn)蠻橫了。
如果我們無(wú)法論證“人工智能不會(huì)危害人類”,那就有必要重新考慮目前是否應(yīng)該發(fā)展人工智能。
二、“人造的東西不可能超過(guò)人”是盲目信念
當(dāng)然,人工智能通常都是智商比較高的人玩的。智力上的榮譽(yù)感,會(huì)使他們中的許多人羞于用“老虎還小”來(lái)說(shuō)服人們同意養(yǎng)虎,他們知道應(yīng)該論證“老虎不會(huì)吃人”,就是論證“人工智能不會(huì)危害人類”。而進(jìn)行這樣的論證時(shí)常用的理由之一,就是“人造的東西不可能超過(guò)人”。盡管這條理由其實(shí)也不能帶來(lái)多少智力上的榮譽(yù),因?yàn)楹芏喾菍I(yè)的公眾也是這么想的。
但是,有誰(shuí)給出過(guò)關(guān)于“人造的東西不可能超過(guò)人”這一論斷令人信服的論證嗎?從來(lái)沒(méi)有。事實(shí)上,這一論斷只是一個(gè)盲目的信念。這個(gè)信念實(shí)際上是在堅(jiān)信:造物主一定比所造之物高明。這樣的信念顯然和宗教情懷有關(guān)。但是到了人工智能的爭(zhēng)議中,那些理應(yīng)最具無(wú)神論精神的科學(xué)主義者,卻不假思索地從宗教信念中尋求思想資源。
而且,這個(gè)信念明顯違背常識(shí)。一個(gè)簡(jiǎn)單的常識(shí)是,父母可不可以視為孩子的造物主?如果可以(至少在相當(dāng)程度上可以),那孩子超過(guò)父母的情形,難道我們沒(méi)見(jiàn)過(guò)嗎?
三、“人工智能未必服從人類設(shè)定的道德標(biāo)準(zhǔn)”,沒(méi)有足夠的論證
比起前面兩條理由來(lái),“人類可以設(shè)定人工智能的道德標(biāo)準(zhǔn)”這條理由看起來(lái)相對(duì)比較專業(yè),至少不會(huì)給玩人工智能的高智商人士直接帶來(lái)羞愧感。這一條也是論證“人工智能不會(huì)危害人類”時(shí)常用的理由。
但是,有誰(shuí)給出過(guò)關(guān)于“人工智能必然會(huì)服從人類設(shè)定的道德標(biāo)準(zhǔn)”這一論斷令人信服的論證嗎?同樣從來(lái)沒(méi)有。
更不幸的是,這一條也明顯違背常識(shí)。一個(gè)明顯的常識(shí)是:人類無(wú)法避免自己的一部分后代學(xué)壞。這樣的例子日常生活中天天都在上演:父母從孩子記事起就灌輸誠(chéng)信、仁愛(ài)、友好、慷慨、勇敢等美德。這些難道不等于對(duì)人工智能的“記憶植入”和道德設(shè)定嗎?可是,仍然有孩子無(wú)可救藥地學(xué)壞了。在這一過(guò)程中,父母設(shè)定的道德標(biāo)準(zhǔn)、學(xué)校進(jìn)行的規(guī)訓(xùn)矯正,都無(wú)法制止他。
學(xué)壞的孩子當(dāng)然已經(jīng)嚴(yán)重危害過(guò)一部分人類,比如這些壞人的刑事犯罪。但是,為何他們尚未統(tǒng)治全人類或危害人類整體呢?那是因?yàn)樗麄儺吘怪皇欠踩?,能力有限。然而,人工智能追求的是什么境界?不弄出“超人”?lái),個(gè)別科學(xué)家肯罷手嗎?
四、“拔掉電源”未來(lái)未必可行
有的專業(yè)人士將人工智能分為四個(gè)級(jí)別:1、沒(méi)有學(xué)習(xí)能力(智能程度也可以相當(dāng)高);2、具有固定的學(xué)習(xí)能力,而且習(xí)得的技能會(huì)趨于一個(gè)定值;3、具有固定的學(xué)習(xí)能力,技能增長(zhǎng)沒(méi)有極限,但因?yàn)樗膶W(xué)習(xí)能力是事先設(shè)定的,所以被認(rèn)為不會(huì)成長(zhǎng)為超級(jí)人工智能;4、具有無(wú)限的學(xué)習(xí)能力,可以成長(zhǎng)為超級(jí)人工智能。
專業(yè)人士安慰說(shuō),此次與李世石對(duì)戰(zhàn)的“阿爾法圍棋”只是第2級(jí)的人工智能,第4級(jí)的人工智能還遠(yuǎn)遠(yuǎn)沒(méi)有問(wèn)世。其實(shí),這里除了前面已經(jīng)討論過(guò)的“老虎還小”之謬,還有更大的危險(xiǎn)存在。
專業(yè)人士在試圖打消公眾對(duì)人工智能的憂慮時(shí),經(jīng)常提到一個(gè)說(shuō)法:我們可以拔掉電源。這個(gè)說(shuō)法,當(dāng)對(duì)人工智能的想象停留在個(gè)體機(jī)器人階段時(shí),也許是成立的。更一般的說(shuō)法可以是,只要人工智能還依賴有形的伺服機(jī)構(gòu)才能實(shí)施行動(dòng),那我們也許還可以拔掉電源。但現(xiàn)實(shí)情形是,人工智能一旦與互聯(lián)網(wǎng)結(jié)合,借用高度發(fā)達(dá)的定制、物流、快遞等社會(huì)服務(wù),幾乎可以完全擺脫對(duì)所有伺服機(jī)構(gòu)的依賴。這一點(diǎn)不僅在大量幻想作品中已經(jīng)反復(fù)上演,而且在現(xiàn)實(shí)生活中也可以順利實(shí)施了。當(dāng)人工智能只是一個(gè)網(wǎng)上幽靈時(shí),沒(méi)有機(jī)體,沒(méi)有形態(tài),還談什么拔掉電源呢?
以前阿西莫夫——提出“機(jī)器人三定律”的人——曾論證過(guò)個(gè)體機(jī)器人智能的物理極限,那有一定道理,但他那個(gè)時(shí)代沒(méi)有互聯(lián)網(wǎng)。如今,我們必須特別關(guān)注人工智能和互聯(lián)網(wǎng)的結(jié)合,即使就個(gè)體機(jī)器人而言,這種結(jié)合也將快速突破智能的物理極限。就無(wú)形的人工智能而言,還有更大的危險(xiǎn)性,一旦和互聯(lián)網(wǎng)結(jié)合,上述1、2、3、4級(jí)人工智能之間的界限還能不能存在?如果居心叵測(cè)的人工智能研發(fā)者,有意突破這些界限,社會(huì)如何監(jiān)控?人工智能進(jìn)化成超級(jí)人工智能可能只需彈指一揮間,到時(shí)人類將措手不及,完全無(wú)法掌控。
五、“發(fā)展科學(xué)”也可能“喚出惡魔”
這是一個(gè)帶有終極性質(zhì)的問(wèn)題。我們必須想清楚:究竟為什么需要人工智能?
工廠生產(chǎn)線需要更多工人嗎?社會(huì)服務(wù)需要更多人手嗎?需要人工智能為我們開(kāi)車嗎?需要人工智能為我們做手術(shù)嗎?這些都是在想象人工智能應(yīng)用前景時(shí)經(jīng)常被提到的,但是都沒(méi)有仔細(xì)推敲過(guò)。對(duì)于這些工作而言,人工智能真是必不可少的嗎?
科學(xué)技術(shù)和資本結(jié)合之后的特征之一,就是為資本增值服務(wù)??茖W(xué)家很少會(huì)坦白地說(shuō)出來(lái)這一點(diǎn)。他們總是對(duì)公眾說(shuō),是為了“發(fā)展科學(xué)”。仿佛“發(fā)展科學(xué)”就是終極目的,為了“發(fā)展科學(xué)”,一切別的事情,哪怕是人類的安危,都不必考慮了。
當(dāng)然,還有另外的需求,如利用人工智能打贏戰(zhàn)爭(zhēng),這就和利用核武器打贏戰(zhàn)爭(zhēng)一樣。馬斯克認(rèn)為人工智能會(huì)“喚出惡魔”,比核武器對(duì)人類的威脅還大;霍金則斷言:“徹底開(kāi)發(fā)人工智能可能導(dǎo)致人類滅亡。”他們的話值得深思。田松教授有名言曰:“警惕科學(xué)!警惕科學(xué)家!”在人工智能問(wèn)題上,真該三復(fù)斯言。
今天,我們即使不得不研發(fā)人工智能,也應(yīng)該抱著和美國(guó)當(dāng)年搞“曼哈頓工程”,或我們當(dāng)年搞“兩彈一星”類似的心態(tài)來(lái)進(jìn)行。更理想的局面,則是各大國(guó)坐下來(lái)談判,簽署一個(gè)禁止或至少限制研發(fā)人工智能的國(guó)際協(xié)議,這才是人類之福。
(審核編輯: 智慧羽毛)
分享