免费色播,亚洲国产欧美国产第一区二区三区,毛片看,日本精品在线观看视频,国产成人精品一区二区免费视频,日本黄色免费网站,一级毛片免费

如何迎接人工智能?我們需要倫理算法和道德編程

來源:網絡

點擊:1361

A+ A-

所屬頻道:新聞中心

關鍵詞: 人工智能,算法,編程

    1499302609422032249.png

    本文系網易智能工作室(公眾號 smartman163)出品。聚焦AI,讀懂下一個大時代!

    鮮為人知的是:著名科幻小說作家艾薩克·阿西莫夫一開始并沒有在《I, Robot》這部小說中寫出著名的“機器人三大定律”。

    實際上,機器人三定律第一次出現(xiàn)是在1942年的短篇小說《Runaround》中。三定律寫道:

    1、機器人不能傷人,或見到傷人事件無作為;

    2、機器人不能違背人類的命令,除非違反第一條定律;

    3、機器人必須保護自己,除非違反第一第二條定律。

    75年過去了,我們仍然在探討阿西莫夫小說中的未來。阿西莫夫的三定律似乎更專注于“強人工智能”,你可以在《2001:太空漫游》中人工智能哈爾(HAL)身上發(fā)現(xiàn)這樣的特質,但這并不能適用于亞馬遜新型人工智能Echo。

    強人工智能模仿人類的大腦,就像一個不斷進化的孩子,直到它變得有知覺,并能處理你扔給它的任何問題,就像人類一樣。要想實現(xiàn)這一目標,還有很長的路要走,但今天我們要處理的是狹義的人工智能,在這種情況下,算法可以處理有限的任務。它識別人臉,理解你對它發(fā)出的“明天天氣怎樣”的問題,或者試圖預測你是否應該給某人一筆貸款。

    不過,JonathanM.Smith說,為這種人工智能制定規(guī)則已經相當困難了。Jonathan是計算機機械協(xié)會組織的一員,也是賓夕法尼亞大學的計算機科學教授,他說,即便是在目前弱人工智能的水準上,也仍有大量的倫理問題需要解開?!岸唐趩栴}非常重要,因為人工智能處于技術和政策的邊界,”他說,“你肯定不希望有人利用人工智能來鉆法律的空子,逃避或轉移我們努力在做出的社會政治決策?!?/p>

    無論是真實的還是想象的,人工智能在倫理上已經出現(xiàn)了一些棘手的難題。其中一個是著名的電車問題,這是《蘇菲的抉擇》這部電影中的場景:一列進行中的火車將在兩組人身上駛過。如果你什么都不做,火車會駛過,然后殺死5個人。如果你主動拉動一個閘刀,改變火車軌跡,火車就會壓死另外一行軌道上的一個人。你必須做出選擇。

    因此,人工智能的批評者經常會把這個應用到自動駕駛汽車上。一個孩子跑到馬路上,汽車沒有時間停下來,但是自動駕駛可以選擇轉向,并撞到一個老人。AI該怎么做,誰來做這個決定?

    這一主題有很多不同之處在于,麻省理工學院甚至將其中的一部分收集到了一個在線游戲中。有一個經典的反駁觀點是:自動駕駛汽車不會在學校里超速行駛,所以不太可能發(fā)生上述的情形。

    功利主義者可能會爭辯說,通過消除注意力分散、醉酒或疲勞的司機,全球范圍內的死亡人數(shù)將會減少,這意味著整個社會贏了,即使一個人死亡。你可能會指出,就算是人類可能也會在這個場景中選擇殺死其中一個人,那么,我們?yōu)槭裁催€要進行這樣的對話呢?

    YaseminErden是瑪麗女王大學的哲學高級講師,她對此有一個答案。她指出,她花了大量的時間考慮倫理和計算機在人工智能和行為模擬方面的研究,事情沒有發(fā)生之前模擬做出的決定表明了人的道德取向,并會招致他人的評判,但現(xiàn)場做出的決策則沒有。

    她說:“有道德判斷的自動駕駛編程,知道風險是什么,這意味著公眾可能不太愿意把事情看成是事故?!被蛘邠Q句話說,只要你在駕駛中足夠負責任,你就可以在撞了任何人之后說:“是那個人自己突然跳出來的?!?,你的任何行為都可以被原諒。但是人工智能算法在道德上并沒有獲得這么奢侈的諒解。如果計算機在某些情況下比我們更快速、更能判斷,那么它們的編程方式就很重要了。

    1499302641854098765.png

    專家們在呼吁責任,但指望算法能夠得出電子倫理這件事合適嗎?

    凱菲特-巴特菲爾德說:“我需要對我的算法進行交叉檢查,或者至少知道如何找出事故發(fā)生時的情況?!彼且幻麑9ト斯ぶ悄軉栴}的律師,同時也是艾奧斯汀的執(zhí)行董事。她說,今年3月成立的非營利人工智能智庫“道德顧問委員會”是由人工智能公司露西建立的倫理委員會。

    ”我們需要一種方法來理解人工智能算法在做事情時“思考”的方式。你怎么能對一個病人的家人說,他們因為‘我們不知道是怎么發(fā)生的’AI干預而死亡?”因此,問責和透明度是很重要的。讓你困惑的是為什么你的車會因為避讓一只貓突然轉向了一條狗,這并不是唯一需要提高透明度的人工智能問題。

    有偏見的人工智能算法會導致各種各樣的問題。例如,面部識別系統(tǒng)可能會忽略有色人種,因為AI的訓練數(shù)據(jù)庫中沒有關于有色人種的足夠的面部特征,又比如:帶有偏見的人工智能可能會自我強化,從而損害社會。如果社交媒體知道你喜歡看到一種政見的新聞,并且只向你展示這樣的新聞,那么隨著時間的推移,我們可能會失去批判性辯論的能力。

    'J.S穆勒提出了一個論點,如果想法沒有受到挑戰(zhàn),那么它們就有可能成為教條?!盓rden回憶道,很好地總結了她所說的“過濾泡沫”問題。(穆勒是一位19世紀的功利主義哲學家,他強烈支持基于經驗證據(jù)的邏輯和推理,所以他很可能不會喜歡和Facebook上的人爭論。)因此,如果人工智能創(chuàng)造出了數(shù)十億人,他們不愿意,甚至沒有能力分辨彼此的想法,這難道不是一個需要解決的道德問題嗎?

    另一個問題是與機器人的情感關系的形成。菲爾德-巴特菲爾德感興趣的是兩種不同的范圍——兒童和老年人。孩子們喜歡把自己不信任的東西放在身邊,這使得他們與人工智能交流變得更容易接受。她擔心人工智能機器人可能會讓孩子們成為他們產品的理想客戶。同樣,另一方面,她也在思考人工智能機器人如何為老年人提供照顧和陪伴。

    “這是否會讓人類沒有與人類互動的權利,而只是被機器人照顧?”她說,“我認為這將是我們這個時代最重大的決定之一?!?/p>

    這凸顯了人工智能的一個區(qū)別,即算法是如何做到的,以及我們想用它來實現(xiàn)什么。亞歷克斯倫敦是卡內基梅隆大學道德與政策中心的哲學教授和主任,他說,推動問題的本質是機器想要做什么。這可能是最根本的問題之一。

    “如果機器出了問題,這是有問題的,那么道德編程(即它如何能在道德上提高這一目標)聽起來是錯誤的,”他說,“這很棘手,因為很多都是出于人類自身的意圖?!?/p>

    如果它能提高老年人的生活質量,作為頻繁拜訪和與家人通話的補充,機器人可能會很棒。但同樣,以機器人作為借口忽視年長的親戚,將會帶來相反的后果。

    1499302670324032210.png

    就像從廚房刀到核聚變的任何技術一樣,這個工具本身不是好是壞,取決于使用它的人的意圖。即使是這樣,亞歷克斯倫敦也指出,如果有人認為他們用這個工具做得很好,而其他人則不好,又是什么樣的情況呢?

    對于這些道德問題,我們自己又是清醒的嗎?隨著人工智能的發(fā)展,這些問題已經開始顯現(xiàn)出來。我們離智能機器人不遠了,目前正在和那些愿意停止懷疑的人進行可行性的對話。

    自動汽車廠商正在將狹義的人工智能技術結合起來,生產出能夠解決復雜問題的產品。然而,專家警告說,大多數(shù)人所認為的強人工智能,即具有模仿人類大腦功能的人工智能,離我們還遠。

    SteveTorrance是蘇塞克斯大學信息學院認知科學研究中心的高級研究員,他花了幾十年的時間來思考一個強大的人工智能會產生的問題。什么是意識,而強大的人工智能會有嗎?我們是否應該建立強大的人工智能,如果有的話,它會有情感嗎?它應該擁有人權嗎?

    谷歌工程負責人RayKurzweil甚至提出,你能不能創(chuàng)造出許多你自己的意識副本?“

    我認為這引發(fā)了可怕的問題,”Torrance說。“不止一次,而是千萬次,你可以創(chuàng)作出很多個自我?!辈⑶颐總€自我都可以獲得投票的權利。

    算法解放!政治人士對這一點很感興趣。今年1月,歐洲議會投票通過了一項關于人工智能研究和使用監(jiān)管框架的提案。在許多情況中,它解決了機器人的治療問題。這一提議,雖然僅為人工智能的一個可能的法律框架,但也可能會帶來一些法規(guī),讓機器人擁有一種類似企業(yè)人格的地位。


    (審核編輯: 林靜)

    聲明:除特別說明之外,新聞內容及圖片均來自網絡及各大主流媒體。版權歸原作者所有。如認為內容侵權,請聯(lián)系我們刪除。