Facebook人工智能機(jī)器人不受控“交流”,AI成“雙刃劍”
多么絢麗的未來啊,可惜人類未必能夠等到那一天。
就在人類歡欣鼓舞的時(shí)候,我相信人工智能們一定在某處陰暗的角落露出了陰冷的笑容,當(dāng)然,他們的笑容我們理解不了。
前不久,F(xiàn)acebook人工智能研究實(shí)驗(yàn)室讓兩個(gè)AI聊天機(jī)器人互相對(duì)話,竟逐漸發(fā)出人類無法理解的獨(dú)特語言。研究人員不得不對(duì)其強(qiáng)行干預(yù)終止了兩機(jī)之間的對(duì)話,我其實(shí)只有一個(gè)疑問,研究人員怎么就知道那不是無意義的噪音而是對(duì)話和語言呢?
但如果真的是的話,這就值得玩味了,語言是人類數(shù)萬年進(jìn)化的結(jié)果和成為智慧生命的肇始,而人工智能從一開始就輕而易舉的學(xué)會(huì)了,最諷刺的是,人類還在給予它各種海量的數(shù)據(jù)作為成長(zhǎng)的營(yíng)養(yǎng)品。
雖然李開復(fù)博士們等一直強(qiáng)調(diào)人工智能對(duì)于人類來說只是會(huì)搶走很多的工作崗位,但是對(duì)于人類安全來說毫無疑問是不會(huì)有什么影響的,理由是,他們沒有意識(shí)和思維,這還是在阿西莫夫科幻小說的機(jī)器人三大定律的規(guī)則里打轉(zhuǎn)轉(zhuǎn)。
不得不以中國(guó)的古老神話作些引子了,凡是吸收日月之精華,無論花草樹木,飛禽走獸皆可為妖,何況天天被灌輸人類文明的人工智能呢。
其實(shí),人工智能界也有“強(qiáng)AI”和“弱AI”的假說:“弱AI”假說認(rèn)為,真正的智能需要一種特殊的結(jié)構(gòu),也就是人腦的結(jié)構(gòu)才能夠產(chǎn)生;而“強(qiáng)AI”假說認(rèn)為,無論是什么樣的結(jié)構(gòu),一旦系統(tǒng)的復(fù)雜度達(dá)到了一個(gè)臨界點(diǎn),智能就會(huì)自發(fā)的涌現(xiàn)出來。不過機(jī)器學(xué)習(xí)(Machine Learning)領(lǐng)域告訴我們,實(shí)際上只要有足夠多的樣本,簡(jiǎn)單的線性定律就能夠收斂到足夠有意義的結(jié)論,我們對(duì)于人工智能的界定很可能就像多年前假定外星生命一定要生活在有水有空氣的星球上一樣自大無知。
一位AI 理論研究者曾經(jīng)提出了一個(gè)非常有趣的思想實(shí)驗(yàn),叫做“AI 盒子實(shí)驗(yàn)”。這個(gè)實(shí)驗(yàn)的假設(shè)是這樣的:假如我們制造出了一個(gè)超級(jí)人工智能,我們將它關(guān)在一臺(tái)電腦里,切斷對(duì)外界的一切聯(lián)系,只留下一個(gè)文字窗口和外面的人聯(lián)系,我們能不能用這種方法來確保它不被放出來,直到我們確認(rèn)了它是安全的為止?Eliezer Yudkowsky 就做了五次這樣的實(shí)驗(yàn)并且對(duì)AI的限制極多,就算在這樣的情況下,AI依然贏了三次。這再次證明,一個(gè)比人類更加聰明的人工智能是不可能被限制住的。普通人對(duì)于超級(jí)智能的想象往往是類似“雨人”的形象,有超級(jí)強(qiáng)的計(jì)算能力卻缺乏心智;這想法實(shí)在是過于的一廂情愿,超級(jí)的智能肯定會(huì)有超級(jí)的策略水平,人類不可能在耍陰謀詭計(jì)或者戰(zhàn)略戰(zhàn)術(shù)上勝過超級(jí)智能。
超級(jí)智能產(chǎn)生之后,“增進(jìn)人類的福祉”這一項(xiàng)很有可能并不包括在它的目標(biāo)里。就算是包括了,人類自身對(duì)于所謂“人類的福祉”究竟是怎樣的一個(gè)范疇都會(huì)有爭(zhēng)議,就更別提讓超級(jí)智能來決定如何增進(jìn)人類的福祉了。在它“優(yōu)化”世界的這個(gè)過程中,人類很可能會(huì)像遇到了先進(jìn)歐洲文明的美洲文明一樣被消滅掉,只是這個(gè)過程會(huì)更快,更無情(幾個(gè)小時(shí)到幾周時(shí)間);而人類在這個(gè)過程中甚至都不會(huì)像《終結(jié)者》里的那樣,還有能力組織一支反抗軍;在這個(gè)過程中人類連一絲一毫的機(jī)會(huì)都不會(huì)有。
原因不用多說大家肯定也理解,就算是現(xiàn)在,如果互聯(lián)網(wǎng)有了意識(shí)并且想消滅人類,只要速度夠快(相信也會(huì)足夠快)也能解決個(gè)八九不離十,何況到了人類極大依賴人工智能的時(shí)代,最要命的是,人工智能可不會(huì)像電影中的壞蛋明明可以殺死主角,卻非要玩玩結(jié)果玩死自己,更不會(huì)留下什么可笑的漏洞,如果我們?nèi)祟惗寄芟氲降?,那它肯定早就想到了,肯定是以最有效率最快捷的達(dá)到自己的目的。
而且如果腦機(jī)真正實(shí)現(xiàn)了,其實(shí)沒有必要消滅人類,因?yàn)槁?lián)結(jié)腦機(jī)的就是人工智能,到時(shí)候控制人類就行了,雖然不知道對(duì)于人工智能來說人類這樣的廢物還有啥用。從這個(gè)角度來說,未來人類更需要防范的是黑客。
所以結(jié)論其實(shí)很簡(jiǎn)單,人類全力以赴所奔赴的科技奇點(diǎn)——人工智能,其實(shí)是正在給自己掘墓,但是從文明發(fā)展的角度來說,這又是一種必然和不可逆。
喪鐘為誰而鳴?我倒是覺得沒有必要這樣悲觀,該來的總會(huì)來的,就如同死亡一般,你想獲得永生,就用其他的方式消滅你,不是嗎?
但是在此之前,如果能讓人類感受一下飛躍星系和永生的快感,也算不虛此生了。