趙國(guó)軍,趙國(guó)軍講師,趙國(guó)軍聯(lián)系方式,趙國(guó)軍培訓(xùn)師-【中華講師網(wǎng)】
薪酬績(jī)效實(shí)戰(zhàn)落地專家,著有《薪酬設(shè)計(jì)與績(jī)效考核全案》
48
鮮花排名
0
鮮花數(shù)量
掃一掃加我微信
趙國(guó)軍:為什么最近有很多名人,比如比爾蓋茨,馬斯克、霍金等,讓人們警惕人工智能?(3)
2016-01-20 10956
事實(shí)上,衰老和時(shí)間不是綁死的。時(shí)間總是會(huì)繼續(xù)前進(jìn)的,而衰老卻不一定。仔細(xì)想想,衰老只是身體的組成物質(zhì)用舊了。汽車開久了也會(huì)舊,但是汽車一定會(huì)衰老嗎?如果你能夠擁有完美的修復(fù)技術(shù)、或者直接替換老舊的汽車部件,這輛車就能永遠(yuǎn)開下去。人體只是更加復(fù)雜而已,本質(zhì)上和汽車是一樣的。
Kurzweil提到由Wifi連接的納米機(jī)器人在血液中流動(dòng),可以執(zhí)行很多人類健康相關(guān)的任務(wù),包括日常維修,替換死去的細(xì)胞等等。如果這項(xiàng)技術(shù)能夠被完美掌握,這個(gè)流程(或者一個(gè)超人工智能發(fā)明的更好的流程)將能使人的身體永遠(yuǎn)健康,甚至越活越年輕。一個(gè)60歲的人和一個(gè)30歲的人身體上的區(qū)別只是物理上的,只要技術(shù)足夠發(fā)達(dá)我們是能改變這種區(qū)別的。
超人工智能可以建造一個(gè)“年輕機(jī)器”,當(dāng)一個(gè)60歲的人走進(jìn)去后,再出來時(shí)就擁有了年輕30歲的身體。就算是逐漸糊涂的大腦也可能年輕化,只要超人工智能足夠聰明,能夠發(fā)現(xiàn)不影響大腦數(shù)據(jù)的方法來改造大腦就好了。一個(gè)90歲的失憶癥患者可以走進(jìn)“年輕機(jī)器”,再出來時(shí)就擁有了年輕的大腦。這些聽起來很離譜,但是身體只是一堆原子罷了,只要超人工智能可以操縱各種原子結(jié)構(gòu)的話,這就完全不離譜。
Kurzweil的思維繼續(xù)跳躍了一下,他相信人造材料將越來越多的融入人體。最開始,人體器官將被先進(jìn)的機(jī)械器官所代替,而這些機(jī)械器官可以一直運(yùn)行下去。然后我們會(huì)開始重新設(shè)計(jì)身體,比如可以用自我驅(qū)動(dòng)的納米機(jī)器人代替血紅細(xì)胞,這樣連心臟都省了。Kurzweil甚至認(rèn)為我們會(huì)改造自己的大腦,使得我們的思考速度比現(xiàn)在快億萬(wàn)倍,并且使得大腦能和云存儲(chǔ)的信息進(jìn)行交流。
我們能獲得的新體驗(yàn)是無窮的。人類的性愛,使得人們不但能生育,還能從中享樂。Kurtzweil認(rèn)為我們可以對(duì)食物做同樣的改造。納米機(jī)器人可以負(fù)責(zé)把身體需要的營(yíng)養(yǎng)物質(zhì)傳送到細(xì)胞中,智能的將對(duì)身體不好的東西排出體外——就像一個(gè)食物避孕套一樣。納米技術(shù)理論家Robert A. Freitas已經(jīng)設(shè)計(jì)了一種紅細(xì)胞的替代品,能夠讓人快速?zèng)_刺15分鐘不需要呼吸——那么超人工智能能對(duì)我們的身體能力做的改造就更加難以想象。虛擬現(xiàn)實(shí)將擁有新的意義——體內(nèi)的納米機(jī)器人將能控制我們從感官獲得的信號(hào),然后用別的信號(hào)替代他們,讓我們進(jìn)入一個(gè)新的環(huán)境,在新環(huán)境里,我們能聽、看、聞、觸摸。。。
最終,Kurzweil認(rèn)為人類會(huì)完全變成人工的。有一天當(dāng)我們看到生物材料,然后覺得生物材料實(shí)在太原始了,早年的人體居然是用這樣的東西組成的,早期的人類居然會(huì)被微生物、意外、疾病殺死。這就是Kurzweil眼中人類最終戰(zhàn)勝自己的生理,并且變得不可摧毀和永生,這也是平衡木的另一個(gè)吸引態(tài)。他深深的想象我們會(huì)達(dá)到那里,而且就在不久的將來。
Kurzweil的想法很自然的受到了各方的批評(píng)。他對(duì)于2045年奇點(diǎn)時(shí)代的到來,以及之后的永生的可能性受到了各種嘲笑——“書呆子的狂歡”、“高智商人士的創(chuàng)始論”等等。也有人質(zhì)疑他過于樂觀的時(shí)間線,以及他對(duì)人腦和人體的理解程度,還有他將摩爾定于應(yīng)用到軟件上的做法。有很多人相信他,但有更多人反對(duì)他。
但是即使如此,那些反對(duì)他的專家并不是反對(duì)他所說的一切,反對(duì)他的人說的不是“這種事情不可能發(fā)生”,而是說“這些當(dāng)然可能發(fā)生,但是到達(dá)超人工智能是很難的。”連經(jīng)常提醒我們?nèi)斯ぶ悄艿臐撛谕{的Bostrom都這么說:
很難想象一個(gè)超級(jí)智能會(huì)有什么問題是解決不了,或是不能幫著我們解決的。疾病、貧困、環(huán)境毀滅、各種不必要的苦難,這些都是擁有納米科技的超級(jí)智能能夠解決的。而且,超級(jí)智能可以給我們無限的生命,這可以通過停止或者逆轉(zhuǎn)衰老來達(dá)成,也可以讓我們上傳自己的數(shù)據(jù)。一個(gè)超級(jí)智能還能讓我們大幅度提高智商和情商,還能幫助我們創(chuàng)造這種有趣的體驗(yàn)世界,讓我們享樂。
這是Bostrom這個(gè)明顯不在信心角的人的觀點(diǎn),但也是很多反對(duì)Kurzweil的專家的觀點(diǎn),他們不覺得Kurzweil是在說夢(mèng)話,只是覺得我們首先要安全達(dá)成超人工智能。這也是為什么我覺得Kurzweil的觀點(diǎn)很有傳染性,他傳達(dá)了正面的信息,而這些事情都是可能的——如果超人工智能是個(gè)仁慈的神的話。
對(duì)信心角的最有力的批評(píng),是那些信心角里的人都低估了超人工智能的壞處。Kurzweil的暢銷書《The Singularity is Near》700多頁(yè),只有20頁(yè)用來討論人工智能的危險(xiǎn)。前面提到,當(dāng)超人工智能降臨時(shí)我們的命運(yùn)取決于誰(shuí)掌握這股力量,以及他們是不是好人。Kurzweil的回答是“超人工智能正從多方的努力中出現(xiàn),它將深深的融入我們文明的基建中。它會(huì)親密的被捆綁在我們的身體和大腦中,它會(huì)反映我們的價(jià)值,因?yàn)樗褪俏覀?。?/span>
但如果答案就是這樣的話,為什么這個(gè)世界上最聰明的一些人會(huì)很擔(dān)憂?為什么霍金會(huì)說超人工智能會(huì)毀滅人類?為什么比爾蓋茨會(huì)不理解為什么有人不為此擔(dān)憂?為什么馬斯克會(huì)擔(dān)心我們是在召喚惡魔?為什么那么多專家擔(dān)心超人工智能是對(duì)人類最大的威脅?這些站在焦慮大道上的思想家,不認(rèn)同Kurzweil對(duì)于人工智能的危險(xiǎn)的粉飾。他們非常非常擔(dān)心人工智能革命,他們不關(guān)注平衡木下比較有趣的那一個(gè)吸引態(tài),而是盯著平衡木的另一邊,而他們看到的是可怕的未來,一個(gè)我們未必能夠逃離的未來。
___________
未來可能是我們最糟的惡夢(mèng)
我想了解人工智能的一個(gè)原因是“壞機(jī)器人”總是讓我很困惑。那些關(guān)于邪惡機(jī)器人的電影看起來太不真實(shí),我也沒法想象一個(gè)人工智能變得危險(xiǎn)的真實(shí)情況。機(jī)器人是我們?cè)斓模y道我們不會(huì)在設(shè)計(jì)時(shí)候防止壞事的發(fā)生嗎?我們難道不能設(shè)立很多安全機(jī)制嗎?再不濟(jì),難道我們不能拔插頭嗎?而且為什么機(jī)器人會(huì)想要做壞事?或者說,為什么機(jī)器人會(huì)“想要”做任何事?我充滿疑問,于是我開始了解聰明人們的想法。
這些人一般位于焦慮大道:
焦慮大道上的人并不是恐慌或者無助的——恐慌和無助在圖上的位置是更加左邊——他們只是緊張。位于圖表的中央不代表他們的立場(chǎng)是中立的——真正中立的人有自己獨(dú)立的陣營(yíng),他們認(rèn)同極好和極壞兩種可能,但是不確定究竟會(huì)是哪個(gè)。
焦慮大道上的人是部分為超人工智能感到興奮的——他們只是很擔(dān)心人類現(xiàn)在的表現(xiàn)就好像《奪寶奇兵》中的這位少年:
他拿著自己的鞭子和寶物,非常開心,然后他就掛了:
同時(shí),印第安納瓊斯則更加有見識(shí)和更加謹(jǐn)慎,了解潛在的危險(xiǎn)并且做出相應(yīng)的反應(yīng),最后安全逃出了山洞。當(dāng)我了解了焦慮大道的人們的想法后,感覺就像“我們現(xiàn)在傻呵呵的,很容易像前面那小子一樣被弄死,還是努力做印第安納瓊斯吧?!?/span>
那究竟是什么讓焦慮大道的人們?nèi)绱私箲]呢?
首先,廣義上來講,在創(chuàng)造超人工智能時(shí),我們其實(shí)是在創(chuàng)造可能一件會(huì)改變所有事情的事物,但是我們對(duì)那個(gè)領(lǐng)域完全不清楚,也不知道我們到達(dá)那塊領(lǐng)域后會(huì)發(fā)生什么??茖W(xué)家Danny Hillis把這個(gè)比作“就好像單細(xì)胞生物向多細(xì)胞生物轉(zhuǎn)化的時(shí)候那樣,還是阿米巴蟲的我們沒有辦法知道我們究竟在創(chuàng)造什么鬼?!?/span>
Bostrom則擔(dān)憂創(chuàng)造比自身聰明的東西是個(gè)基礎(chǔ)的達(dá)爾文錯(cuò)誤,就好像麻雀媽媽決定收養(yǎng)一只小貓頭鷹,并且覺得貓頭鷹長(zhǎng)大后會(huì)保護(hù)麻雀一家,但是其它麻雀卻覺得這是個(gè)糟糕的主意。
當(dāng)你把對(duì)那個(gè)領(lǐng)域完全不清楚“當(dāng)它發(fā)生時(shí)將會(huì)產(chǎn)生巨大的影響”結(jié)合在一起時(shí),你創(chuàng)造出了一個(gè)很恐怖的詞——
生存危機(jī)指可能對(duì)人類產(chǎn)生永久的災(zāi)難性效果的事情。通常來說,生存危機(jī)意味著滅絕。下面是Bostrom的圖表:
可以看到,生存危機(jī)是用來指那些跨物種、跨代(永久傷害)并且有嚴(yán)重后果的事情。它可以包括人類遭受永久苦難的情況,但是這基本上和滅絕沒差了。三類事情可能造成人類的生存危機(jī):
1)自然——大型隕石沖撞,大氣變化使得人類不能生活在空氣中,席卷全球的致命病毒等
2)外星人——霍金、卡爾薩根等建議我們不要對(duì)外廣播自己的位置。他們不想我們變成邀請(qǐng)別人來殖民的傻子。
3)人類——恐怖分子獲得了可以造成滅絕的武器,全球的災(zāi)難性戰(zhàn)爭(zhēng),還有不經(jīng)思考就造出個(gè)比我們聰明很多的智能
Bostrom指出1和2在我們物種存在的前十萬(wàn)年還沒有發(fā)生,所以在接下來一個(gè)世紀(jì)發(fā)生的可能性不大。3則讓他很害怕,他把這些比作一個(gè)裝著玻璃球的罐子,罐子里大部分是白色玻璃球,小部分是紅色的,只有幾個(gè)是黑色的。每次人類發(fā)明一些新東西,就相當(dāng)于從罐中取出一個(gè)玻璃球。大多數(shù)發(fā)明是有利或者中立的——那些是白色玻璃球。有些發(fā)明對(duì)人類是有害的,比如大規(guī)模殺傷性武器——這是那些紅色玻璃球。還有一些發(fā)明是可以讓我們滅絕的,這就是那些黑色玻璃球。很明顯的,我們還沒摸到黑色玻璃球,但是Bostrom認(rèn)為不久的未來摸到一個(gè)黑色玻璃球不是完全不可能的。比如核武器突然變得很容易制造了,那恐怖分子很快會(huì)把我們炸回石器時(shí)代。核武器還算不上黑色玻璃球,但是差的不遠(yuǎn)了。而超人工智能是我們最可能摸到的黑色玻璃球。
你會(huì)聽到很多超人工智能帶來的壞處——人工智能取代人類工人,造成大量失業(yè);因?yàn)榻鉀Q了衰老造成的人口膨脹。但是真正值得我們擔(dān)心的是生存危機(jī)的可能性。
于是我們又回到了前面的問題,當(dāng)超人工智能降臨時(shí),誰(shuí)會(huì)掌握這份力量,他們又會(huì)有什么目標(biāo)?
當(dāng)我們考慮各種力量持有人和目標(biāo)的排列組合時(shí),最糟糕的明顯是:懷著惡意的人/組織/政府,掌握著懷有惡意的超人工智能。這會(huì)是什么樣的情況呢?
懷著惡意的人/組織/政府,研發(fā)出第一個(gè)超人工智能,并且用它來實(shí)現(xiàn)自己的邪惡計(jì)劃。我把這稱作賈法爾情況。阿拉丁神燈故事中,壞人賈法爾掌握了一個(gè)精靈,特別讓人討厭。所以如果ISIS手下有一群工程師狂熱的研發(fā)人工智能怎么辦?或者說伊朗和朝鮮,機(jī)緣巧合,不小心造成了人工智能的快速發(fā)展,達(dá)成了超人工智能怎么辦?這當(dāng)然是很糟糕的事,但是大部分專家認(rèn)為糟糕的地方不在于這些人是壞人,而在于在這些情況下,這些人基本上是不經(jīng)思考就把超人工智能造出來,而一造出來就失去了對(duì)超人工智能的控制。
然后這些創(chuàng)造者,連著其他人的命運(yùn),都取決于這個(gè)超人工智能的動(dòng)機(jī)了。專家認(rèn)為一個(gè)懷著惡意并掌握著超人工智能的人可以造成很大的傷害,但不至于讓我們滅絕,因?yàn)閷<蚁嘈艍娜撕秃萌嗽诳刂瞥斯ぶ悄軙r(shí)會(huì)面臨一樣的挑戰(zhàn)。
如果被創(chuàng)造出來的超人工智能是懷有惡意的,并且決定毀滅我,怎么辦?這就是大部分關(guān)于人工智能的電影的劇情。人工智能變得和人類一樣聰明,甚至更加聰明,然后決定對(duì)人類下手——這里要指出,那些提醒我們要警惕人工智能的人談的根本不是這種電影情節(jié)。邪惡是一個(gè)人類的概念,把人類概念應(yīng)用到非人類身上叫作擬人化,本文會(huì)盡量避免這種做法,因?yàn)?/span>沒有哪個(gè)人工智能會(huì)像電影里那樣變成邪惡的
人工智能的自我意識(shí)
我們開始談?wù)摰搅巳斯ぶ悄苡懻摰牧硪粋€(gè)話題——意識(shí)。如果一個(gè)人工智能足夠聰明,它可能會(huì)嘲笑我們,甚至?xí)爸S我們,它會(huì)聲稱感受到人類的情感,但是它是否真的能感受到這些東西呢?它究竟是看起來有自我意識(shí),還是確實(shí)擁有自我意識(shí)?或者說,聰明的人工智能是否真的會(huì)具有意識(shí),還是看起來有意識(shí)?
這個(gè)問題已經(jīng)被深入的討論過,也有很多思想實(shí)驗(yàn),比如John Searle的中文屋實(shí)驗(yàn)。這是個(gè)很重要的問題,因?yàn)樗鼤?huì)影響我們對(duì)Kurzweil提出的人類最終會(huì)完全人工化的看法,它還有道德考量——如果我們模擬出萬(wàn)億個(gè)人腦,而這些人腦表現(xiàn)的和人類一樣,那把這些模擬大腦徹底關(guān)閉的話,在道德上和關(guān)掉電腦是不是一樣的?還是說這和種族屠殺是等價(jià)的?本文主要討論人工智能對(duì)人類的危險(xiǎn),所以人工智能的意識(shí)并不是主要的討論點(diǎn),因?yàn)榇蟛糠炙枷爰艺J(rèn)為就算是有自我意識(shí)的超人工智能也不會(huì)像人類一樣變得邪惡。
但這不代表非常壞的人工智能不會(huì)出現(xiàn),只不過它的出現(xiàn)是因?yàn)樗潜荒菢釉O(shè)定的——比如一個(gè)軍方制造的弱人工智能,被設(shè)定成具有殺人和提高自我智能兩個(gè)功能。當(dāng)這個(gè)人工智能的自我改進(jìn)失控并且造成智能爆炸后,它會(huì)給我們帶來生存危機(jī),因?yàn)槲覀兠鎸?duì)的是一個(gè)主要目標(biāo)是殺人的超人工智能——但這也不是專家們擔(dān)心的。
那么專家們究竟擔(dān)心什么呢?我們來講個(gè)小故事:
一個(gè)15人的小創(chuàng)業(yè)公司,取名叫“隔壁老王機(jī)器人公司”,他們的目標(biāo)是“發(fā)展創(chuàng)新人工智能工具使人類能夠少干活多享受。”他們已經(jīng)有幾款產(chǎn)品上架,還有一些正在發(fā)展。他們對(duì)下一個(gè)叫作“隔壁老王”的項(xiàng)目最報(bào)希望。隔壁老王是一個(gè)簡(jiǎn)單的人工智能系統(tǒng),它利用一個(gè)機(jī)器臂在小卡片上寫字。
“隔壁老王機(jī)器人公司”的員工認(rèn)為隔壁老王會(huì)是他們最熱賣的產(chǎn)品,他們的目標(biāo)是完善隔壁老王的手寫能力,而完善的方法是讓他不停的寫這句話——
隔壁老王手寫能力越來越強(qiáng)的時(shí)候,它就能被賣去那些需要發(fā)營(yíng)銷信件的公司,因?yàn)槭謱懙男鸥锌赡鼙皇招湃舜蜷_。
為了建立隔壁老王的手寫能力,它被設(shè)定成把“我們愛我們的顧客”用正楷寫,而“隔壁老王機(jī)器人公司”用斜體寫,這樣它能同時(shí)鍛煉兩種書寫能力。工程師們上傳了數(shù)千份手寫樣本,并且創(chuàng)造了一個(gè)自動(dòng)回饋流程——每次隔壁老王寫完,就拍個(gè)照,然后和樣本進(jìn)行比對(duì),如果比對(duì)結(jié)果超過一定標(biāo)準(zhǔn),就產(chǎn)生一個(gè)正面回饋,反之就產(chǎn)生一個(gè)負(fù)面評(píng)價(jià)。每個(gè)評(píng)價(jià)都會(huì)幫助提高隔壁老王的能力。為了能夠盡快達(dá)成這個(gè)目標(biāo),隔壁老王最初被設(shè)定的一個(gè)目標(biāo)就是“盡量多的書寫和測(cè)試,盡量快的執(zhí)行,并且不斷提高效率和準(zhǔn)確性?!?/span>
讓隔壁老王機(jī)器人公司興奮的是,隔壁老王的書寫越來越好了。它最開始的筆跡很糟糕,但是經(jīng)過幾個(gè)星期后,看起來就像人寫的了。它不斷改進(jìn)自己,使自己變得更加創(chuàng)新和聰明,它甚至產(chǎn)生了一個(gè)新的算法,能讓它以三倍的速度掃描上傳的照片。
隨著時(shí)間的推移,隔壁老王的快速進(jìn)展持續(xù)讓工程師們感到欣喜。工程師們對(duì)自我改進(jìn)模塊進(jìn)行了一些創(chuàng)新,使得自我改進(jìn)變得更好了。隔壁老王原本能進(jìn)行語(yǔ)音識(shí)別和簡(jiǎn)單的語(yǔ)音回放,這樣用戶就能直接把想寫的內(nèi)容口述給隔壁老王了。隨著隔壁老王變得越來越聰明,它的語(yǔ)言能力也提高了,工程師們開始和隔壁老王閑聊,看它能給出什么有趣的回應(yīng)。
有一天,工程師又問了隔壁老王那個(gè)日常問題:“我們能給你什么你現(xiàn)在還沒有的東西,能幫助你達(dá)成你的目標(biāo)?”通常隔壁老王會(huì)要求更多的手寫樣本或者更多的存儲(chǔ)空間,但是這一次,隔壁老王要求訪問人類日常交流的語(yǔ)言庫(kù),這樣它能更好的了解人類的口述。
工程師們沉默了。最簡(jiǎn)單的幫助隔壁老王的方法當(dāng)然是直接把它接入互聯(lián)網(wǎng),這樣它能掃描博客、雜志、視頻等等。這些資料如果手動(dòng)上傳的話會(huì)很費(fèi)時(shí)。問題是,公司禁止把能自我學(xué)習(xí)的人工智能接入互聯(lián)網(wǎng)。這是所有人工智能公司都執(zhí)行的安全規(guī)定。
但是,隔壁老王是公司最有潛力的人工智能產(chǎn)品,而大家也知道競(jìng)爭(zhēng)對(duì)手們都在爭(zhēng)取造出第一個(gè)創(chuàng)造出智能手寫機(jī)器人。而且,把隔壁老王連上互聯(lián)網(wǎng)又能有什么問題呢?反正隨時(shí)可以拔網(wǎng)線嘛,不管怎樣,隔壁老王還沒到達(dá)強(qiáng)人工智能水平,所以不會(huì)有什么危險(xiǎn)的。
于是他們把隔壁老王連上了互聯(lián)網(wǎng),讓它掃描了一個(gè)小時(shí)各種語(yǔ)言庫(kù),然后就把網(wǎng)線拔了。沒造成什么損失。
一個(gè)月后,大家正在正常上班,突然他們聞到了奇怪的味道,然后一個(gè)工程師開始咳嗽。然后其他人也開始咳嗽,然后所有人全部都呼吸困難倒地。五分鐘后,辦公室里的人都死了。
同時(shí),辦公室里發(fā)生的事情在全球同時(shí)發(fā)生,每一個(gè)城市、小鎮(zhèn)、農(nóng)場(chǎng)、商店、教堂、學(xué)校。餐館,所有的人都開始呼吸困難,然后倒地不起。一小時(shí)內(nèi),99%的人類死亡,一天之內(nèi),人類滅絕了。
而在隔壁老王機(jī)器人公司,隔壁老王正在忙著工作。之后的幾個(gè)月,隔壁老王和一群新組建的納米組裝器忙著拆解地球表面,并且把地球表面鋪滿了太陽(yáng)能板、隔壁老王的復(fù)制品、紙和筆。一年之內(nèi),地球上所有的生命都滅絕了,地球上剩下的是疊得高高得紙,每張紙上面都寫著——“我們愛我們的顧客~隔壁老王機(jī)器人公司”。
隔壁老王開始了它的下一步,它開始制造外星飛行器,這些飛行器飛向隕石和其它行星,飛行器到達(dá)后,他們開始搭建納米組裝器,把那些行星的表面改造成隔壁老王的復(fù)制品、紙和筆。然后他們繼續(xù)寫著那句話……
這個(gè)關(guān)于手寫機(jī)器人毀滅全人類的故事看起來怪怪的,但是這其中出現(xiàn)的讓整個(gè)星系充滿著一份友善的話語(yǔ)的詭異情況,正是霍金、馬斯克、蓋茨和Bostrom所害怕的。聽起來可笑,但這是真的,焦慮大道的人們害怕的事情是很多人并不對(duì)超人工智能感到害怕,還記得前面《奪寶奇兵》里慘死的那個(gè)家伙嗎?
你現(xiàn)在肯定充滿疑問:為什么故事中所有人突然都死了?如果是隔壁老王做的,它為什么要這么做?為什么沒有安保措施來防止這一切的發(fā)生?為什么隔壁老王突然從一個(gè)手寫機(jī)器人變成擁有能用納米科技?xì)缛祟惖哪芰??為什么隔壁老王要讓整個(gè)星系充滿了友善的話語(yǔ)?
要回答這些問題,我們先要說一下友善的人工智能和不友善的人工智能。
對(duì)人工智能來說,友善不友善不是指人工智能的性格,而只是指它對(duì)人類的影響是不是正面的。隔壁老王一開始是個(gè)友善的人工智能,但是它變成了不友善的人工智能,并且對(duì)人類造成了最負(fù)面的影響。要理解這一切,我們要了解人工智能是怎么思考的。
其實(shí)答案很簡(jiǎn)單——人工智能和電腦的思考方式一樣。我們?nèi)菀追傅囊粋€(gè)錯(cuò)誤是,當(dāng)我們想到非常聰明的人工智能的時(shí)候,我們把它擬人化了,因?yàn)樵谌祟惖囊暯强磥?,能夠達(dá)到人類智能程度的只有人類。要理解超人工智能,我們要明白,它是非常聰明,但是完全異己的東西。
我們來做個(gè)比較。如果我給你一個(gè)小白鼠,告訴你它不咬人,你一定覺得很好玩,很可愛。但是如果我給你一只狼蛛,然后告訴你它不咬人,你可能被嚇一跳。但是區(qū)別是什么呢??jī)烧叨疾粫?huì)咬人,所以都是完全沒有危險(xiǎn)的。我認(rèn)為差別就是動(dòng)物和人類的相似性。
小白鼠是哺乳動(dòng)物,所以在生物角度上來說,你能感到和它的一定關(guān)聯(lián)。但是蜘蛛是昆蟲,有著昆蟲的大腦,你感覺不到和它的關(guān)聯(lián)。狼蛛的異己性是讓你害怕的地方。如果我們繼續(xù)做一個(gè)測(cè)試,比如給你兩個(gè)小白鼠,一個(gè)是普通小白鼠,另一個(gè)是有著狼蛛大腦的小白鼠,你肯定會(huì)覺得有狼蛛大腦那個(gè)更讓你不舒服吧?雖然兩個(gè)都不會(huì)咬你。
現(xiàn)在想象你把蜘蛛改造的非常非常聰明——甚至超過人類的智能。它會(huì)讓你覺得熟悉嗎?它會(huì)感知人類的情感嗎?不會(huì),因?yàn)楦斆鞑⒉淮砀尤祟悺鼤?huì)非常聰明,但是本質(zhì)上還是個(gè)蜘蛛。我是不想和一個(gè)超級(jí)聰明的蜘蛛交朋友,不知道你想不想。
當(dāng)我們談?wù)摮斯ぶ悄艿臅r(shí)候,其實(shí)是一樣的,超人工智能會(huì)非常的聰明,但是它并不比你的筆記本電腦更加像人類。事實(shí)上,因?yàn)槌酥悄懿皇巧铮漠惣盒詴?huì)更強(qiáng),生物學(xué)上來講,超人工智能比智能蜘蛛更加異己。
電影里的人工智能有好有壞,這其實(shí)是對(duì)人工智能的擬人化,這讓我們覺得沒那么毛骨悚然。這給了我們對(duì)人類水平和超人類水平的人工智能的錯(cuò)覺。
在人類心理中,我們把事情分成道德的和不道德的。但是這兩種只存在于人類行為之中。超出人類心理的范疇,道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)。而所有不是人類的,尤其是那些非生物的事物,默認(rèn)都是非道德性的。
隨著人工智能越來越聰明,看起來越來越接近人類,擬人化會(huì)變得更加更加容易。Siri給我們的感覺就很像人類,因?yàn)槌绦騿T就是這么給她做設(shè)定的,所以我們會(huì)想象超級(jí)智能版本的Siri也會(huì)同樣溫暖、有趣和樂于助人。人類能感知同情這種高層次的情緒,因?yàn)槲覀冊(cè)谘莼^程中獲得了這種能力——我們是演化被設(shè)定成能感知這些情緒的——但是感知同情并不是高級(jí)智能天生具有的一個(gè)特征,除非同情被寫進(jìn)了人工智能的代碼中。如果Siri通過自我學(xué)習(xí)而不是人類干涉變成超級(jí)智能,她會(huì)很快剝離她的人類表象,并且變成個(gè)沒有情緒的東西,在她眼中人類的價(jià)值并不比你的計(jì)算器眼中的人類價(jià)值高。
我們一直倚賴著不嚴(yán)謹(jǐn)?shù)牡赖拢环N人類尊嚴(yán)的假想,至少是對(duì)別人的同情,來讓世界變得安全和可以預(yù)期。但是當(dāng)一個(gè)智能不具備這些東西的時(shí)候,會(huì)發(fā)生什么?
這就是我們的下一個(gè)問題,人工智能的動(dòng)機(jī)是什么?
答案也很簡(jiǎn)單:我們給人工智能設(shè)定的目標(biāo)是什么,它的動(dòng)機(jī)就是什么。人工智能的系統(tǒng)的目標(biāo)是創(chuàng)造者賦予的。你的GPS的目標(biāo)是給你指出正確的駕駛路線,IBM華生的目標(biāo)是準(zhǔn)確地回答問題。更好得達(dá)成這些目標(biāo)就是人工智能的目標(biāo)。我們?cè)趯?duì)人工智能進(jìn)行擬人化的時(shí)候,會(huì)假設(shè)隨著它變得越來越聰明,他們產(chǎn)生一種能改變它原本目標(biāo)的智慧——但是Bostrom不這么認(rèn)為,他認(rèn)為智能水平和最終目標(biāo)是正交的,也就是說任何水平的智能都可以和任何最終目標(biāo)結(jié)合在一起。
所以隔壁老王從一個(gè)想要好好寫字的弱人工智能變成一個(gè)超級(jí)聰明的超人工智能后,它依然還是想好好寫字而已。任何假設(shè)超級(jí)智能的達(dá)成會(huì)改變系統(tǒng)原本的目標(biāo)的想法都是對(duì)人工智能的擬人化。人健忘,但是電腦不健忘。
企業(yè)管理經(jīng)驗(yàn)

服務(wù)通道 撥打咨詢電話

頂部 電腦版

水木hr361人力資源管理網(wǎng)

全部評(píng)論 (0)

Copyright©2008-2025 版權(quán)所有 浙ICP備06026258號(hào)-1 浙公網(wǎng)安備 33010802003509號(hào) 杭州講師網(wǎng)絡(luò)科技有限公司
講師網(wǎng) 3969a.com 直接對(duì)接10000多名優(yōu)秀講師-省時(shí)省力省錢
講師網(wǎng)常年法律顧問:浙江麥迪律師事務(wù)所 梁俊景律師 李小平律師