當(dāng)智能機器可以像人類一樣自主決策,我們就需要考慮以下問題:它們能夠作出哪些類型的決策?它們是基于什么作出這些決策的?誰來設(shè)定它們的決策參數(shù)?如何實現(xiàn)人工智能作出符合社會倫理道德的決策?
人工智能機器與自動化機器設(shè)備相比,有兩個顯著不同:第一,它們被賦予了更多的決策權(quán),不再是有限決策或完全被預(yù)先設(shè)定路線或程式的功能機器;第二,它們被要求在更加復(fù)雜、充滿不確定性的環(huán)境中運行,不僅要和其他各種類型的機器互動,更要和人類或動物產(chǎn)生互動。這是一種從量變到質(zhì)變的飛躍。在醫(yī)療、交通、新聞、軍事等領(lǐng)域,人工智能已經(jīng)被廣泛應(yīng)用,由此所產(chǎn)生的倫理問題也會逐漸增多。當(dāng)下,涉及道德決策問題的討論,最典型的當(dāng)屬自動駕駛汽車。它們被要求具備作出“正確”道德決策的能力,而且是在沒有人為干預(yù)和指導(dǎo)的情況下。
關(guān)于自動駕駛汽車道德決策的討論集中在與“電車?yán)Ь场鳖愃频臉O端場景。這一困境背后隱藏著亟待解答的問題是,究竟該由誰(制造者、使用者、集體和其他智能機器)來決定智能機器的道德決策的參數(shù)設(shè)定?通過類似的案例研究人工智能道德決策具有啟發(fā)性,也具有一定的誤導(dǎo)性。根據(jù)美國交通部門2013年的一項統(tǒng)計,每1億英里只有77次受傷和1.09次意外死亡事故,而且每一起事故的發(fā)生情境都具有明顯的差異性。上述案例中,殺死或傷害誰的道德困境的確可能發(fā)生,但出現(xiàn)的概率很小。這類研究之所以備受關(guān)注,很大程度上是因為它關(guān)乎人們的生死抉擇。但是,自動駕駛汽車不可能做到百分之百正確的決策,當(dāng)前工作的重點是確保它們被設(shè)計成在車禍情形中風(fēng)險最小。
安全問題應(yīng)當(dāng)被最優(yōu)先考慮,但它不是問題的全部。要拓寬道德算法的范圍,涵蓋其他一些次要的因素。我們可以將自動駕駛過程將會面臨的各種決策情形劃分為不同的等級,用一個金字塔來表示:“電車難題”情形下的決策處于最頂端,數(shù)量相對少見;道路使用者是否遵守交通規(guī)則的抉擇處于中部,占據(jù)主體部分;各種并不違反交通規(guī)則但可能影響其他道路使用者的決策情況占據(jù)金字塔的最低端。對于這些道德決策情形的研究,可以接受思想實驗方法的啟發(fā)性指導(dǎo),但更多地應(yīng)該通過實證研究進(jìn)行。
目前,對于人工智能道德決策的研究有“自上而下”和“自下而上”兩種研究進(jìn)路。自上而下的研究是將倫理原則或某種道德理論進(jìn)行編碼,植入智能機器的制導(dǎo)系統(tǒng)當(dāng)中,自動駕駛汽車基于被嵌入的道德哲學(xué)程序做出道德選擇。不過,正如批評者們所指出的:一方面,適用于某些人的道德標(biāo)準(zhǔn)可能并不適用于其他人;另一方面,如何在互相競爭的道德系統(tǒng)之間進(jìn)行選擇存在困難,這些爭論在傳統(tǒng)的倫理學(xué)討論中尚且沒有定論。
自下而上的進(jìn)路主張,是指智能機器不需要被嵌入任何道德規(guī)則或道德哲學(xué),它只需要“觀察”并分析大量的實際情境中人類的行為數(shù)據(jù),就能學(xué)會如何做道德決策。這種依托大數(shù)據(jù)和機器學(xué)習(xí)的進(jìn)路已經(jīng)在自動駕駛汽車的非倫理方面被廣泛采用。例如,自動駕駛汽車能夠通過對幾十個小時的手動駕駛數(shù)據(jù)進(jìn)行分析實現(xiàn)自動駕駛。不過,批評者也指出,智能機器在學(xué)會道德行為的同時也會學(xué)會一些不道德行為。在面臨突發(fā)情況時,司機因緊張做出的條件反射式動作可能成為機器學(xué)習(xí)的對抗樣本,而不是審慎的和值得提倡的道德決策。這樣,智能汽車學(xué)會的只是常見的處理方式,而不是什么是道德的。
兩種研究進(jìn)路都面臨種種困難,這主要源于人類所使用的道德哲學(xué)的內(nèi)在結(jié)構(gòu),而不來自技術(shù)本身。當(dāng)我們考慮把某種道德規(guī)范或價值標(biāo)準(zhǔn)植入智能機器時,共同體的道德一致性和智能機器使用者的個人偏好,究竟應(yīng)該優(yōu)先考慮哪一個?2016年,《科學(xué)》雜志刊發(fā)的一項研究揭示,大多數(shù)人都支持智能機器保護(hù)更多的人。但是,當(dāng)涉及自身或家人的生命安危時,人們可能轉(zhuǎn)向相反的道德標(biāo)準(zhǔn)。
至此,我們應(yīng)該認(rèn)識到對人工智能的道德決策實施監(jiān)管是必要的。這種監(jiān)管要通過兩種途徑同時著手:一是外部制約。隨著機器學(xué)習(xí)的不斷增強,人工智能的道德決策可能會偏離初始設(shè)置,因此監(jiān)管機構(gòu)要定期審查其道德算法是否還能通過道德水平測試;二是內(nèi)部監(jiān)控。從算法上設(shè)置一種二階程序?qū)崟r地監(jiān)控人工智能系統(tǒng)的運行,即用人工智能監(jiān)管人工智能。
(審核編輯: 智匯張瑜)
分享