第二部分開始:
文章的第一部分討論了已經(jīng)在我們?nèi)粘I钪须S處可見的弱人工智能,然后討論了為什么從弱人工智能到強(qiáng)人工智能是個很大的挑戰(zhàn),然后我們談到了為什么技術(shù)進(jìn)步的指數(shù)級增長表面強(qiáng)人工智能可能并不那么遙遠(yuǎn)。第一部分的結(jié)束,我們談到了一旦機(jī)器達(dá)到了人類級別的智能,我們將見到如下的場景:
這讓我們無所適從,尤其考慮到超人工智能可能會發(fā)生在我們有生之年,我們都不知道該用什么表情來面對。
再我們繼續(xù)深入這個話題之前,讓我們提醒一下自己超級智能意味著什么。
很重要的一點(diǎn)是速度上的超級智能和質(zhì)量上的超級智能的區(qū)別。很多人提到和人類一樣聰明的超級智能的電腦,第一反應(yīng)是它運(yùn)算速度會非常非??臁秃孟褚粋€運(yùn)算速度是人類百萬倍的機(jī)器,能夠用幾分鐘時(shí)間思考完人類幾十年才能思考完的東西
這聽起來碉堡了,而且超人工智能確實(shí)會比人類思考的快很多,但是真正的差別其實(shí)是在智能的質(zhì)量而不是速度上。用人類來做比喻,人類之所以比猩猩智能很多,真正的差別并不是思考的速度,而是人類的大腦有一些獨(dú)特而復(fù)雜的認(rèn)知模塊,這些模塊讓我們能夠進(jìn)行復(fù)雜的語言呈現(xiàn)、長期規(guī)劃、或者抽象思考等等,而猩猩的腦子是做不來這些的。就算你把猩猩的腦子加速幾千倍,它還是沒有辦法在人類的層次思考的,它依然不知道怎樣用特定的工具來搭建精巧的模型——人類的很多認(rèn)知能力是猩猩永遠(yuǎn)比不上的,你給猩猩再多的時(shí)間也不行。
而且人和猩猩的智能差別不只是猩猩做不了我們能做的事情,而是猩猩的大腦根本不能理解這些事情的存在——猩猩可以理解人類是什么,也可以理解摩天大樓是什么,但是它不會理解摩天大樓是被人類造出來的,對于猩猩來說,摩天大樓那么巨大的東西肯定是天然的,句號。對于猩猩來說,它們不但自己造不出摩天大樓,它們甚至沒法理解摩天大樓這東西能被任何東西造出來。而這一切差別,其實(shí)只是智能的質(zhì)量中很小的差別造成的。
而當(dāng)我們在討論超人工智能時(shí)候,智能的范圍是很廣的,和這個范圍比起來,人類和猩猩的智能差別是細(xì)微的。如果生物的認(rèn)知能力是一個樓梯的話,不同生物在樓梯上的位置大概是這樣的:
要理解一個具有超級智能的機(jī)器有多牛逼,讓我們假設(shè)一個在上圖的樓梯上站在深綠色臺階上的一個機(jī)器,它站的位置只比人類高兩層,就好像人類比猩猩只高兩層一樣。這個機(jī)器只是稍微有點(diǎn)超級智能而已,但是它的認(rèn)知能力之于人類,就好像人類的認(rèn)知能力之于猩猩一樣。就好像猩猩沒有辦法理解摩天大樓是能被造出來的一樣,人類完全沒有辦法理解比人類高兩層臺階的機(jī)器能做的事情。就算這個機(jī)器試圖向我們解釋,效果也會像教猩猩造摩天大樓一般。
而這,只是比我們高了兩層臺階的智能罷了,站在這個樓梯頂層的智能之于人類,就好像人類之于螞蟻一般——它就算花再多時(shí)間教人類一些最簡單的東西,我們依然是學(xué)不會的。
但是我們討論的超級智能并不是站在這個樓梯頂層,而是站在遠(yuǎn)遠(yuǎn)高于這個樓梯的地方。當(dāng)智能爆炸發(fā)生時(shí),它可能要花幾年時(shí)間才能從猩猩那一層往上邁一步,但是這個步子會越邁越快,到后來可能幾個小時(shí)就能邁一層,而當(dāng)它超過人類十層臺階的時(shí)候,它可能開始跳著爬樓梯了——一秒鐘爬四層臺階也未嘗不可。所以讓我們記住,當(dāng)?shù)谝粋€到達(dá)人類智能水平的強(qiáng)人工智能出現(xiàn)后,我們將在很短的時(shí)間內(nèi)面對一個站在下圖這樣很高很高的樓梯上的智能(甚至比這更高百萬倍):
前面已經(jīng)說了,試圖去理解比我們高兩層臺階的機(jī)器就已經(jīng)是徒勞的,所以讓我們很肯定的說,我們是沒有辦法知道超人工智能會做什么,也沒有辦法知道這些事情的后果。任何假裝知道的人都沒搞明白超級智能是怎么回事。
自然演化花了幾億年時(shí)間發(fā)展了生物大腦,按這種說法的話,一旦人類創(chuàng)造出一個超人工智能,我們就是在碾壓自然演化了。當(dāng)然,可能這也是自然演化的一部分——可能演化真正的模式就是創(chuàng)造出各種各樣的智能,直到有一天有一個智能能夠創(chuàng)造出超級智能,而這個節(jié)點(diǎn)就好像踩上了地雷的絆線一樣,會造成全球范圍的大爆炸,從而改變所有生物的命運(yùn)。
科學(xué)界中大部分人認(rèn)為踩上絆線不是會不會的問題,而是時(shí)間早晚的問題。想想真嚇人。
那我們該怎么辦呢?
可惜,沒有人都告訴你踩到絆線后會發(fā)生什么。但是人工智能思想家Nick Bostrom認(rèn)為我們會面臨兩類可能的結(jié)果——永生和滅絕。
首先,回顧歷史,我們可以看到大部分的生命經(jīng)歷了這樣的歷程:物種出現(xiàn),存在了一段時(shí)間,然后不可避免的跌落下生命的平衡木,跌入滅絕的深淵。
歷史上來說,“所有生物終將滅絕”就像“所有人都會死”一樣靠譜。至今為止,存在過的生物中99.9%都已經(jīng)跌落了生命的平衡木,如果一個生物繼續(xù)在平衡木上走,早晚會有一陣風(fēng)把它吹下去。Bostrom把滅絕列為一種吸引態(tài)——所有生物都有墜入的風(fēng)險(xiǎn),而一旦墜入將沒有回頭。
雖然大部分科學(xué)家都承認(rèn)一個超人工智能有把人類滅絕的能力,也有一些人為如果運(yùn)用得當(dāng),超人工智能可以幫助人類和其它物種,達(dá)到另一個吸引態(tài)——永生。Bostrom認(rèn)為物種的永生和滅絕一樣都是吸引態(tài),也就是我一旦我們達(dá)成了永生,我們將永遠(yuǎn)不再面臨滅絕的危險(xiǎn)——我們戰(zhàn)勝了死亡和幾率。所以,雖然絕大多數(shù)物種都從平衡木上摔了下去滅絕了,Bostrom認(rèn)為平衡木外是有兩面的,只是至今為止地球上的生命還沒聰明到發(fā)現(xiàn)怎樣去到永生這另一個吸引態(tài)。
如果Bostrom等思想家的想法是對的,而且根據(jù)我的研究他們確實(shí)很可能是對的,那么我們需要接受兩個事實(shí):
1)超人工智能的出現(xiàn),將有史以來第一次,將物種的永生這個吸引態(tài)變?yōu)榭赡?/span>
2)超人工智能的出現(xiàn),將造成非常巨大的沖擊,而且這個沖擊可能將人類吹下平衡木,并且落入其中一個吸引態(tài)
有可能,當(dāng)自然演化踩到絆線的時(shí)候,它會永久的終結(jié)人類和平衡木的關(guān)系,創(chuàng)造一個新的世界,不管這時(shí)人類還是不是存在。
而現(xiàn)在的問題就是:“我們什么時(shí)候會踩到絆線?”以及“從平衡木上跌下去后我們會掉入哪個吸引態(tài)?”
沒人知道答案,但是一些聰明人已經(jīng)思考了幾十年,接下來我們看看他們想出來了些什么。
___________
先來討論“我們什么時(shí)候會踩到絆線?”也就是什么時(shí)候會出現(xiàn)第一個超級智能。
不出意外的,科學(xué)家和思想家對于這個意見的觀點(diǎn)分歧很大。很多人,比如Vernor Vinge教授,科學(xué)家Ben Goertzel,SUN創(chuàng)始人Bill Joy,發(fā)明家和未來學(xué)家Ray Kurzweil,認(rèn)同機(jī)器學(xué)習(xí)專家Jeremy Howard的觀點(diǎn),Howard在TED演講時(shí)用到了這張圖:
這些人相信超級智能會發(fā)生在不久的將來,因?yàn)橹笖?shù)級增長的關(guān)系,雖然機(jī)器學(xué)習(xí)現(xiàn)在還發(fā)展緩慢,但是在未來幾十年就會變得飛快。
其它的,比如微軟創(chuàng)始人Paul Allen,心理學(xué)家Gary Marcus,NYU的電腦科學(xué)家Ernest Davis,以及科技創(chuàng)業(yè)者M(jìn)itch Kapor認(rèn)為Kurzweil等思想家低估了人工智能的難度,并且認(rèn)為我們離絆線還挺遠(yuǎn)的。
Kurzweil一派則認(rèn)為唯一被低估的其實(shí)是指數(shù)級增長的潛力,他們把質(zhì)疑他們理論的人比作那些1985年時(shí)候看到發(fā)展速度緩慢的因特網(wǎng),然后覺得因特網(wǎng)在未來不會有什么大影響的人一樣。
而質(zhì)疑者們則認(rèn)為智能領(lǐng)域的發(fā)展需要達(dá)到的進(jìn)步同樣是指數(shù)級增長的,這其實(shí)把技術(shù)發(fā)展的指數(shù)級增長抵消了。
爭論如此反復(fù)。
第三個陣營,包括Nick Bostrom在內(nèi),認(rèn)為其它兩派都沒有理由對踩絆線的時(shí)間那么有信心,他們同時(shí)認(rèn)為 a) 這事情完全可能發(fā)生在不久的未來 b)但是這個事情沒個準(zhǔn),說不定會花更久
還有不屬于三個陣營的其他人,比如哲學(xué)家Hubert Dreyfus,相信三個陣營都太天真了,根本就沒有什么絆線。超人工智能是不會被實(shí)現(xiàn)的。
當(dāng)你把所有人的觀點(diǎn)全部融合起來的話是怎樣呢?
2013年的時(shí)候,Bostrom做了個問卷調(diào)查,涵蓋了數(shù)百位人工智能專家,問卷的內(nèi)容是“你預(yù)測人類級別的強(qiáng)人工智能什么時(shí)候會實(shí)現(xiàn)”,并且讓回答者給出一個樂觀估計(jì)(強(qiáng)人工智能有10%的可能在這一年達(dá)成),正常估計(jì)(有50%的可能達(dá)成),和悲觀估計(jì)(有90%可能達(dá)成)。當(dāng)把大家的回答統(tǒng)計(jì)后,得出了下面的結(jié)果:
樂觀估計(jì)中位年(強(qiáng)人工智能有10%的可能在這一年達(dá)成):2022年
正常估計(jì)中位年(強(qiáng)人工智能有50%的可能在這一年達(dá)成):2040年
悲觀估計(jì)中位年(強(qiáng)人工智能有90%的可能在這一年達(dá)成):2075年
所以一個中位的人工智能專家認(rèn)為25年后的2040年我們能達(dá)成強(qiáng)人工智能,而2075年這個悲觀估計(jì)表明,如果你現(xiàn)在夠年輕,有一半以上的人工智能專家認(rèn)為在你的有生之年能夠有90%的可能見到強(qiáng)人工智能的實(shí)現(xiàn)。
另外一個獨(dú)立的調(diào)查,由作家James Barrat在Ben Goertzel的強(qiáng)人工智能年會上進(jìn)行,他直接問了參與者認(rèn)為強(qiáng)人工智能哪一年會實(shí)現(xiàn),選項(xiàng)有2030年,2050年,2100年,和永遠(yuǎn)不會實(shí)現(xiàn)。結(jié)果是:
2030年:42%的回答者認(rèn)為強(qiáng)人工智能會實(shí)現(xiàn)
2050年:25%的回答者
2100年:20%
2100年以后:10%
永遠(yuǎn)不會實(shí)現(xiàn):2%
這個結(jié)果和Bostrom的結(jié)果很相似。在Barrat的問卷中,有超過三分之二的參與者認(rèn)為強(qiáng)人工智能會在2050年實(shí)現(xiàn),有近乎半數(shù)(42%)的人認(rèn)為未來15年(2030年)就能實(shí)現(xiàn)。并且,只有2%的參與者認(rèn)為強(qiáng)人工智能永遠(yuǎn)不會實(shí)現(xiàn)。
但是強(qiáng)人工智能并不是絆線,超人工智能才是。那么專家們對超人工智能是怎么想的呢?
Bostrom的問卷還詢問專家們認(rèn)為達(dá)到超人工智能要多久,選項(xiàng)有a)達(dá)成強(qiáng)人工智能兩年內(nèi),b)達(dá)成強(qiáng)人工智能30年內(nèi)。問卷結(jié)果如下:
中位答案認(rèn)為強(qiáng)人工智能到超人工智能只花2年時(shí)間的可能性只有10%左右,但是30年之內(nèi)達(dá)成的可能性高達(dá)75%
從以上答案,我們可以估計(jì)一個中位的專家認(rèn)為強(qiáng)人工智能到超人工智能可能要花20年左右。所以,我們可以得出,現(xiàn)在全世界的人工智能專家中,一個中位的估計(jì)是我們會在2040年達(dá)成強(qiáng)人工智能,并在20年后的2060年達(dá)成超人工智能——也就是踩上了絆線。
當(dāng)然,以上所有的數(shù)據(jù)都是推測,它只代表了現(xiàn)在人工智能領(lǐng)域的專家的中位意見,但是它告訴我們的是,很大一部分對這個領(lǐng)域很了解的人認(rèn)為2060年是一個實(shí)現(xiàn)超人工智能的合理預(yù)測——距今只有45年。
那么我們來看一下下一個問題,踩到絆線后,我們將跌向平衡木的哪一個方向?
超級智能會產(chǎn)生巨大的力量,所以關(guān)鍵的問題時(shí)——到時(shí)這股力量究竟由誰掌握,掌握這份力量的人會怎么做?
這個問題的答案將決定超人工智能究竟是天堂還是地獄。
同樣的,專家們在這個問題上的觀點(diǎn)也不統(tǒng)一。Bostrom的問卷顯示專家們看待強(qiáng)人工智能對于人類社會的影響時(shí),52%認(rèn)為結(jié)果會是好或者非常好的,31%認(rèn)為會是糟糕的或者非常糟糕的,只有17%的人認(rèn)為結(jié)果會是不好不壞的。也就是說,這個領(lǐng)域的專家普遍認(rèn)為這將是一個很大的事情,不論結(jié)果好壞。要注意的是,這個問題問的是強(qiáng)人工智能,如果問的是超人工智能,認(rèn)為結(jié)果不好不壞的人可能不會有17%這么多。
在我們深入討論好壞這個問題之前,我們先把“什么時(shí)候會發(fā)生”和“這是好事還是壞事”的結(jié)果綜合起來畫張表,這代表了大部分專家的觀點(diǎn):
我們等下再考慮主流陣營的觀點(diǎn)。咱們先來問一下你自己是怎么想的,其實(shí)我大概能猜到你是怎么想的,因?yàn)槲议_始研究這個問題前也是這樣的想的。很多人其實(shí)不關(guān)心這個話題,原因無非是:
像本文第一部分所說,電影展示了很多不真實(shí)的人工智能場景,讓我們認(rèn)為人工智能不是正經(jīng)的課題。作家James Barrat把這比作傳染病控制中心發(fā)布吸血鬼警報(bào)一樣滑稽。
因?yàn)檎J(rèn)知偏差,所以我們在見到證據(jù)前很難相信一件事情是真的。我確信1988年的時(shí)候電腦科學(xué)家們就已經(jīng)常在討論因特網(wǎng)將是多么重要,但是一般人并不會認(rèn)為因特網(wǎng)會改變他們的生活——直到他們的生活真的被改變了。一方面,1988年的電腦確實(shí)不夠給力,所以那時(shí)的人們看著電腦會想:“這破玩意兒也能改變我的生活,你逗我吧?”人們的想象力被自己對于電腦的體驗(yàn)而約束。讓他們難以想象電腦會變成現(xiàn)在的樣子。同樣的事情正發(fā)生在人工智能領(lǐng)域。我們聽到很多人說人工智能將會造成很大影響,但是因?yàn)檫@個事情還沒發(fā)生,因?yàn)槲覀兒鸵恍┤醣说娜斯ぶ悄芟到y(tǒng)的個人經(jīng)歷,讓我們難以相信這東西真的能改變我們的生活。而這些認(rèn)知偏差,正是專家們在努力對抗的。
就算我們相信人工智能的巨大潛力,你今天又花了多少時(shí)間思考“在接下來的永恒中,絕大部分時(shí)間我都不會再存在”這個問題?雖然這個問題比你今天干的大部分事情都重要很多,但是正常人都不會老是想這個吧。這是因?yàn)槟愕拇竽X總是關(guān)注日常的小事,不管長期來看有多少重要的事情,我們天生就是這么思考的。
這篇東西的主要目標(biāo)就是讓你脫離普通人陣營,加入專家思考的陣營,哪怕能讓你站到兩條不確定線的交點(diǎn)上,目標(biāo)也達(dá)到了。
在我的研究中,我見識到了各種各樣的觀點(diǎn),但是我發(fā)現(xiàn)大多數(shù)人的觀點(diǎn)都停留在主流陣營中。事實(shí)上超過四分之三的專家都屬于主流陣營中的兩個小陣營:焦慮大道和信心角
我們將對這兩個小陣營做深入的談?wù)摚屛覀儚谋容^有趣的那個開始吧
為什么未來會是天堂
研究人工智能這個領(lǐng)域后,我發(fā)現(xiàn)有比預(yù)期的多得多的人站在信心角當(dāng)中:
站在信心角中的人非常興奮,他們認(rèn)為他們將走向平衡木下比較有趣的那個吸引態(tài),未來將實(shí)現(xiàn)他們的夢想,他們只需耐心等待。
把這一部分人從其他思想家區(qū)分開來的是這些人對于比較有趣的那個吸引態(tài)的欲望——他們很有信心永生是我們的發(fā)展方向。
這份信心是哪里來的不好說,評論家認(rèn)為是這些人太過興奮而產(chǎn)生了盲點(diǎn),忽略了可能的負(fù)面結(jié)果。但是信心角的人還是把批評者當(dāng)作末日論者來看待,他們認(rèn)為技術(shù)會繼續(xù)幫助我們而不是傷害我們。
兩邊的觀點(diǎn)我們都會說,這樣你能形成自己的觀點(diǎn),但是在讀下面的內(nèi)容前,請把質(zhì)疑暫時(shí)擱置,讓我們看看平衡木兩邊究竟有什么,并且記住這些事情是有可能發(fā)生的。如果我們給一個打獵采集者看我們現(xiàn)在的舒適家居、技術(shù)、富庶,在他眼里這一切也會像魔法一樣——我們也要接受未來完全可能出現(xiàn)能把我們嚇尿的變革。
Bostrom描述了三種超人工智能可能的工作模式
- 先知模式:能準(zhǔn)確回答幾乎所有的問題,包括對人類來說很困難的復(fù)雜問題,比如“怎樣造一個更好的汽車引擎?”
- 精靈模式:能夠執(zhí)行任何高級指令,比如用分子組合器造一個更好的汽車引擎出來
- 獨(dú)立意志模式(sovereign):可以執(zhí)行開放式的任務(wù),能在世界里自由活動,可以自己做決定,比如發(fā)明一種比汽車更快、更便宜、更安全的交通模式。
這些對人類來說很復(fù)雜的問題,對于一個超級智能來說可能就像“我的筆掉了,你能幫我撿一下嗎?”這么簡單。
Eliezer Yudkowsky,是這么說的:
“根本沒有困難的問題,只有對于特定級別的智能來說難的問題。在智能的階梯上走一小步,一些不可能的問題就變得簡單了,如果走一大步,所有問題都變得簡單了。”
信心角里有很多熱忱的科學(xué)家、發(fā)明家和創(chuàng)業(yè)者,但是對于人工智能的未來最有發(fā)言權(quán)的,當(dāng)屬Ray Kurzweil.
對于Kurzweil的評價(jià)非常兩極化,既有如對神人般的崇拜,也有翻白眼似的不屑。也有一些中立主義者,比如作家Douglas Hofstadter,他覺得Kurzweil的觀點(diǎn)就好像把美食和狗屎混在一起,讓你分不清是好是壞。
不管你同不同意Kurzweil的觀點(diǎn),他都是一個牛人。他年輕時(shí)候就開始搞發(fā)明,之后幾十年發(fā)明了很多東西,比如第一臺平板掃描儀,第一臺能把文字轉(zhuǎn)化為語言的掃描儀(盲人使用),著名的Kurzweil音樂合成器(第一臺真正意義上的電子鋼琴),以及第一套商業(yè)銷售的語音識別系統(tǒng)。他是五本暢銷書的作者。他很喜歡做大膽的預(yù)測,而且一直很準(zhǔn),比如他80年代末的時(shí)候預(yù)測到2000年后因特網(wǎng)會成為全球級的現(xiàn)象。他被《華爾街日報(bào)》成為“不休的天才”,被《福布斯》稱為“終極思想機(jī)器”,被《Inc.》稱作“愛迪生真正的傳人”,被比爾蓋茨稱為“我認(rèn)識的對人工智能預(yù)測最厲害的人?!?012年谷歌創(chuàng)始人Larry Page曾邀請他擔(dān)任谷歌的工程總監(jiān),2011年他共同創(chuàng)立了奇點(diǎn)大學(xué)(Singularity University),現(xiàn)在大學(xué)由美國太空總署運(yùn)運(yùn)營,由谷歌贊助。 Kurzweil的經(jīng)歷很重要,因?yàn)楫?dāng)他講述自己對未來的愿景時(shí),他聽起來就是個瘋子,但是他不瘋,恰恰相反,他非常聰明而有知識。你可能覺得他對于未來的想法是錯的,但是他不傻。知道他是一個聰明人讓我很開心,因?yàn)楫?dāng)我知道他對未來的預(yù)測后,我急切的很希望他的預(yù)測是對的。信心角中的很多思想家都認(rèn)同Kurzweil的預(yù)測,他也有很多粉絲,被稱為奇點(diǎn)主義者。
時(shí)間線
Kurzweil相信電腦會在2029年達(dá)成強(qiáng)人工智能,而到了2045年,我們不但會有超人工智能,還會有一個完全不同的世界——奇點(diǎn)時(shí)代。他的人工智能時(shí)間線曾經(jīng)被認(rèn)為非常的狂熱,現(xiàn)在也還是有很多人這么認(rèn)為,但是過去15年弱人工智能的快速發(fā)展讓更多的專家靠近了Kurzweil的時(shí)間線。雖然他的時(shí)間線比之前提到的2040年和2060年更加早,但是并沒有早多少。
Kurzweil的奇點(diǎn)時(shí)代是三個技術(shù)領(lǐng)域的共同革命造成的——生物技術(shù)、納米技術(shù)和最重要的人工智能技術(shù)。
在我們繼續(xù)討論人工智能前,讓我們談一下納米技術(shù)這個任何關(guān)于人工智能的討論都會涉及到的領(lǐng)域
納米技術(shù)
納米技術(shù)說的是在1-100納米的范圍內(nèi)操縱物質(zhì)的技術(shù)。一納米是一米的十億分之一,是一毫米的一百萬分之一。1-100納米這個范圍涵蓋了病毒(100納米長),DNA(10納米寬), 大分子比如血紅蛋白(5納米),和中分子比如葡萄糖(1納米)。當(dāng)我們能夠完全掌握納米技術(shù)的時(shí)候,我們離在原子層面操縱物質(zhì)就只差一步了,因?yàn)槟侵皇且粋€數(shù)量級的差距(約0.1納米)。
要了解在納米量級操縱物質(zhì)有多困難,我們可以換個角度來比較。國際空間站距離地面431公里。如果一個人身高431公里,也就是他站著能夠頂?shù)絿H空間站的話,他將是普通人類的25萬倍大。如果你把1-100納米放大25萬倍,你算出的是0.25毫米-25毫米。所以人類使用納米技術(shù),就相當(dāng)于一個身高431公里的巨人用沙子那么大的零件搭精巧的模型。如果要達(dá)到原子級別操縱物質(zhì),就相當(dāng)于讓這個431公里高的巨人使用0.025毫米大的零件。
關(guān)于納米技術(shù)的思考,最早由物理學(xué)家費(fèi)曼在1959年提出,他解釋道:“據(jù)我所知,物理學(xué)的原理,并不認(rèn)為在原子級別操縱物質(zhì)是不可能的。原則上來說,物理學(xué)家能夠制造出任何化學(xué)家能寫出來的物質(zhì)——只要把一個個原子按照化學(xué)家寫出來的放在一起就好了?!逼鋵?shí)就是這么簡單,所以我們只要知道怎樣移動單個的分子和原子,我們就可以造出任何東西。
工程師Eric Drexler提出納米級組裝機(jī)后,納米技術(shù)在1986年成為了一門正經(jīng)的學(xué)科。納米級組裝機(jī)的工作原理是這樣的:一個牛逼掃描儀掃描物件的3D原子模型,然后自動生成用來組裝的軟件。然后由一臺中央電腦和數(shù)萬億的納米“機(jī)器人”,通過軟件用電流來指揮納米機(jī)器人,最后組成所需要的物件。
--------------------------
再扯遠(yuǎn)一點(diǎn)
納米技術(shù)有一些不是那么有趣的部分——能夠制造數(shù)萬億的納米機(jī)器人唯一合理的方法就是制造可以自我復(fù)制的范本,然后讓指數(shù)級增長來完成建造任務(wù)。很機(jī)智吧?
是很機(jī)智,但是這一不小心就會造成世界末日。指數(shù)級增長雖然能很快的制造數(shù)萬億的納米機(jī)器人,但這也是它可怕的地方——如果系統(tǒng)出故障了,指數(shù)級增長沒有停下來,那怎么辦?納米機(jī)器人將會吞噬所有碳基材料來支持自我復(fù)制,而不巧的是,地球生命就是碳基的。地球上的生物質(zhì)量大概包含10^45個碳原子。一個納米機(jī)器人有10^6個碳原子的話,只需要10^39個納米機(jī)器人就能吞噬地球上全部的生命了,而2^130約等于10^39,也就是說自我復(fù)制只要進(jìn)行130次就能吞噬地球生命了。科學(xué)家認(rèn)為納米機(jī)器人進(jìn)行一次自我復(fù)制只要100秒左右,也就是說一個簡單的錯誤可能就會在3.5小時(shí)內(nèi)毀滅地球上全部的生命。
更糟糕的是,如果恐怖分子掌握了納米機(jī)器人技術(shù),并且知道怎么操縱它們的話,他可以先造幾萬億個納米機(jī)器人,然后讓它們散播開來。然后他就能發(fā)動襲擊,這樣只要花一個多小時(shí)納米機(jī)器人就能吞噬一切,而且這種攻擊無法阻擋。未來真的是能把人嚇尿的。
------------------------
等我們掌握了納米技術(shù)后,我們就能用它來制造技術(shù)產(chǎn)品、衣服、食物、和生物產(chǎn)品,比如人造紅細(xì)胞、癌癥細(xì)胞摧毀者、肌肉纖維等等。而在納米技術(shù)的世界里,一個物質(zhì)的成本不再取決于它的稀缺程度或是制造流程的難度,而在于它的原子結(jié)構(gòu)有多復(fù)雜。在納米技術(shù)的時(shí)代,鉆石可能比橡皮擦還便宜。
我們還沒掌握這種技術(shù),我們甚至不知道我們對于達(dá)成這種技術(shù)的難度是高估了還是低估了,但是我們看上去離那并不遙遠(yuǎn)。Kurzweil預(yù)測我們會在21世紀(jì)20年代掌握這樣的技術(shù)。各國政府知道納米技術(shù)將能改變地球,所以他們投入了很多錢到這個領(lǐng)域,美國、歐盟和日本至今已經(jīng)投入了50億美元。
設(shè)想一下,一個具有超級智能的電腦,能夠使用納米級的組裝器,是種什么樣的體驗(yàn)?要記得納米技術(shù)是我們在研究的玩意兒,而且我們就快掌握這項(xiàng)技術(shù)了,而我們能做的一切在超人工智能看來就是小兒科罷了,所以我們要假設(shè)超人工智能能夠創(chuàng)造出比這要發(fā)達(dá)很多很多的技術(shù),發(fā)達(dá)到我們的大腦都沒有辦法理解。
因此,當(dāng)考慮“如果人工智能革命的成果對我們是好的”這個命題的時(shí)候,要記得我們根本沒法高估會發(fā)生什么。所以就算下面對于超人工智能的預(yù)測顯得太不靠譜,要記得這些進(jìn)展可能是用我們沒有辦法想象的方法達(dá)成的。事實(shí)上,我們的大腦很可能根本沒法預(yù)測將會發(fā)生什么。
----------------
人工智能能為我們做什么
擁有了超級智能和超級智能所能創(chuàng)造的技術(shù),超人工智能可以解決人類世界的所有問題。氣候變暖?超人工智能可以用更優(yōu)的方式產(chǎn)生能源,完全不需要使用化石燃料,從而停止二氧化碳排放。然后它能創(chuàng)造方法移除多余的二氧化碳。癌癥?沒問題,有了超人工智能,制藥和健康行業(yè)將經(jīng)歷無法想象的革命。世界饑荒?超人工智能可以用納米技術(shù)直接搭建出肉來,而這些搭建出來的肉和真肉在分子結(jié)構(gòu)上會是完全相同的——換句話說,就是真肉。 納米技術(shù)能夠把一堆垃圾變成一堆新鮮的肉或者其它食品,然后用超級發(fā)達(dá)的交通把這些食物分配到世界各地。這對于動物也是好消息,我們不需要屠殺動物來獲得肉了。而超人工智能在拯救瀕危物種和利用DNA復(fù)活已滅絕物種上面也能做很多事情。超人工智能甚至可以解決復(fù)雜的宏觀問題——我們關(guān)于世界經(jīng)濟(jì)和貿(mào)易的爭論將不再必要,甚至我們對于哲學(xué)和道德的苦苦思考也會被輕易的解決。 但是,有一件事是如此的吸引人,光是想想就能改變對所有事物的看法了:
幾個月前,我提到我很羨慕那些可能達(dá)成了永生的文明。但是,現(xiàn)在,我已經(jīng)在認(rèn)真的考慮達(dá)成永生這個事情很可能在我們有生之年就能達(dá)成。研讀人工智能讓你重新審思對于所有事情的看法,包括死亡這一很確定的事情。
自然演化沒有理由讓我們活得比現(xiàn)在更長。對于演化來說,只要我們能夠活到能夠生育后代,并且養(yǎng)育后代到能夠自己保護(hù)自己的年紀(jì),那就夠了——對演化來說,活30多歲完全夠了,所以額外延長生命的基因突變并不被自然選擇所鐘愛。這其實(shí)是很無趣的事情。
而且因?yàn)樗腥硕紩溃晕覀兛偸钦f“死亡和繳稅”是不可避免的。我們看待衰老就像看待時(shí)間一樣——它們一直向前,而我們沒有辦法阻止它們。
但是這個假設(shè)是錯的,費(fèi)曼曾經(jīng)寫道:
“在所有的生物科學(xué)中,沒有任何證據(jù)說明死亡是必需的。如果你說你想造永動機(jī),那我們對于物理學(xué)的研究已經(jīng)讓我們有足夠的理論來說明這是不可能的。但是在生物領(lǐng)域我們還沒發(fā)現(xiàn)任何證據(jù)證明死亡是不可避免的。也就是說死亡不一定是不可避免的,生物學(xué)家早晚會發(fā)現(xiàn)造成我們死亡的原因是什么,而死亡這個糟糕的‘病’就會被治好,而人類的身體也將不再只是個暫時(shí)的容器?!?/span>