人工智能武器威脅說
最近,人工智能武器遭到激烈的反對(duì)和抗議之聲,促使一些人認(rèn)為機(jī)器人將最終取代人類,成為世界的主宰。這種可怕的想定不可能在近期內(nèi)成為現(xiàn)實(shí),但人工智能武器帶來的威脅確非常規(guī)人控武器可以比擬,我們有充足的理由對(duì)其說“不”。
易變成殺戮機(jī)器
在谷歌的無人駕駛汽車身上,我們可一瞥人工智能的未來。想象一下,一個(gè)邪惡的犯罪集團(tuán)盜取了一輛無人汽車,而后給車子裝上機(jī)關(guān)槍并對(duì)其重新編程,使其成為殺人武器。這種武器便是人工智能武器。人工智能武器的巨大潛力引起了政府的興趣。這一年,美國海軍宣布研制自治無人機(jī)武器的計(jì)劃。此外,韓國的Super aEgis II自動(dòng)炮臺(tái)以及俄羅斯的Platform-M自動(dòng)作戰(zhàn)機(jī)器研制計(jì)劃也浮出水面。
在研制智能武器方面,政府并不是唯一的參與者。想象一下,一種搭載著GoPro運(yùn)動(dòng)相機(jī)的四旋翼無人機(jī),絕大多數(shù)人都有能力購買。再想象一下,有人研發(fā)出一款簡單的軟件,允許這種無人機(jī)自主飛行。既然能夠讓無人汽車武器化,邪惡的犯罪集團(tuán)自然也能讓無人機(jī)武器化,在人員密集的公共場所制造大屠殺。人工智能武器構(gòu)成一個(gè)迫在眉睫的威脅:它們很容易被轉(zhuǎn)化成殺戮機(jī)器,不分青紅皂白地展開屠殺,危險(xiǎn)性遠(yuǎn)遠(yuǎn)超過類型相同,但由人類操控的武器。
物理學(xué)家斯蒂芬·霍金和馬克斯·泰格馬克、科技業(yè)大佬伊隆·馬斯克以及其他很多人都在人類未來研究所的一份請(qǐng)?jiān)笗虾灻?,呼吁禁止人工智能武器。在此之前?月,聯(lián)合國召開“殺手機(jī)器人”會(huì)議,但并沒有做出任何具有持久性的政策決定。人類未來研究所的請(qǐng)?jiān)笗Q人工智能武器的威脅迫在眉睫,需要采取行動(dòng)以避免在幾年內(nèi)釀成災(zāi)難。不過,請(qǐng)?jiān)笗]有指出何種類型的智能武器已經(jīng)出現(xiàn)在地平線上。
更為現(xiàn)實(shí)的威脅
很多人擔(dān)心《終結(jié)者》中描寫的末日景象將成為現(xiàn)實(shí)。片中,機(jī)器人擁有與人類相似的能力,企圖征服人類,成為地球的統(tǒng)治者。英國物理學(xué)家和天文學(xué)家馬丁·里斯提出了災(zāi)難性假設(shè)——機(jī)器人失去控制或者網(wǎng)絡(luò)擁有自我意識(shí)。他在劍橋的同事、哲學(xué)家休·普萊斯也表達(dá)了類似的擔(dān)憂,認(rèn)為人工智能一旦擺脫生物學(xué)束縛,人類便可能無法繼續(xù)存在下去。在兩個(gè)人的努力下,劍橋大學(xué)成立了存在威脅研究中心,力圖避免人類的生存遭遇如此災(zāi)難性的威脅。
這些假設(shè)確實(shí)值得研究,但遠(yuǎn)不如已經(jīng)出現(xiàn)在地平線上的人工智能武器構(gòu)成的威脅那么緊迫。無論按照何種標(biāo)準(zhǔn),我們都不可能在近期內(nèi)研發(fā)出類人人工智能。雷丁大學(xué)的聊天機(jī)器人尤金·古斯特曼被很多媒體稱之為“真正的人工智能”,因?yàn)樗屢恍┤讼嘈潘且粋€(gè)13歲的男孩,但事實(shí)證明古斯特曼與真正的人工智能仍相距甚遠(yuǎn)。
很多人之所以在請(qǐng)?jiān)笗虾灻脑蛟谟冢号c擁有自我意識(shí)的電腦網(wǎng)絡(luò)不同,安裝機(jī)關(guān)槍的無人汽車是一個(gè)更為現(xiàn)實(shí)的威脅。類似這樣的人工智能武器的真正威脅并非它們已經(jīng)處在毀滅世界的邊緣,而是任何一個(gè)電腦黑客只需很低的預(yù)算便可對(duì)它們進(jìn)行重新編程,將其變成高效并且不加選擇展開屠殺的殺戮機(jī)器。智能武器本身并不可怕,真正可怕的是那些用心險(xiǎn)惡的人。
可被獨(dú)裁者利用
想象一下,一個(gè)野心勃勃的獨(dú)裁者決心清洗反對(duì)者。他有一個(gè)數(shù)據(jù)庫,里面存儲(chǔ)著有關(guān)國民忠誠度的數(shù)據(jù)、地址和照片。如果是在過去,這個(gè)獨(dú)裁者需要一支軍隊(duì)完成這個(gè)任務(wù),還需要賄賂士兵或者給他們洗腦,讓他們死心塌地地為自己效命。但如果是在未來,他只需要購買幾千架裝有自動(dòng)武器的無人機(jī)。(根據(jù)摩爾定律,人工智能無人機(jī)的價(jià)格將在未來的某一天降至與AK-47相當(dāng)?shù)某潭取?接下來,效命于他的三四名軟件工程師對(duì)無人機(jī)進(jìn)行重新編程,而后派遣無人機(jī)到反對(duì)者的住處和工作場所附近巡邏,一旦發(fā)現(xiàn)目標(biāo)便予以射殺。無人機(jī)犯錯(cuò)的幾率更小,不會(huì)被人賄賂或者洗腦。最重要的是,它們的效率遠(yuǎn)遠(yuǎn)超過士兵,幫助野心勃勃的獨(dú)裁者在國際社會(huì)做出任何反應(yīng)之前將反對(duì)者全部清洗。
由于自動(dòng)化大幅提高效率,這就意味著喪心病狂的惡棍制造大屠殺的難度大幅降低。有了人工智能武器,過去的獨(dú)裁者需要掌控整個(gè)軍隊(duì)才能做到的事情,現(xiàn)在只要財(cái)力雄厚便可辦到。試圖研發(fā)這種武器的制造商和政府可能聲稱他們可以采取完備的防范措施,確保智能武器不會(huì)被重新編程或者被黑客入侵。對(duì)于這種態(tài)度,我們應(yīng)投以懷疑的目光。從電子投票機(jī)到自動(dòng)取款機(jī),再從藍(lán)光光碟播放機(jī)到飛馳在高速路上的汽車,它們都曾編織安全神話,但最近都在黑客的攻擊下破滅。歷史的教訓(xùn)告訴我們,計(jì)算設(shè)備往往屈服于企圖改變其用途的黑客,人工智能武器不可能成為一個(gè)例外。
對(duì)智能武器說“不”
1925年,《日內(nèi)瓦議定書》簽訂,禁止在戰(zhàn)爭中使用窒息性、毒性或其他氣體以及細(xì)菌戰(zhàn)。空尖彈早在1899年便被禁用。未來是否會(huì)簽訂類似禁令,禁止使用某種人工智能武器?答案是肯定的。如果只需很低的成本便可輕易將某種人工智能機(jī)器改造成高效的,不加選擇地展開屠殺的大規(guī)模殺傷性武器,禁止使用這種機(jī)器的國際公約便會(huì)浮出水面。這種機(jī)器與放射性金屬?zèng)]有本質(zhì)差別,都可以用于正當(dāng)用途,但我們必須謹(jǐn)慎對(duì)待,嚴(yán)加管控,防止其被改造成毀滅性武器。人工智能機(jī)器的可怕之處在于:對(duì)其進(jìn)行改造并將其用于破壞目的的難度遠(yuǎn)遠(yuǎn)低于改造核反應(yīng)堆。
我們之所以要禁止人工智能武器并不是因?yàn)檫@種武器本身,而是因?yàn)樾膽沿蠝y的人很容易將它們變成嗜血的惡魔。只需要一段簡單的代碼,很多智能武器便可轉(zhuǎn)化成破壞性不亞于生化武器和空尖彈的殺戮機(jī)器。
禁止確定人工智能機(jī)器需要解答很多問題。人工智能武器能否促使美國放棄“星球大戰(zhàn)”導(dǎo)彈防御計(jì)劃?如果汽車可以被作為武器使用,是否應(yīng)該禁止無人汽車?智能的確切定義是什么?武器的確定定義又是什么?所有這些都是非常重要的問題,也很難找到答案。不過,在我們同意簽署一項(xiàng)協(xié)定,控制人工智能武器之前,這些問題無需解答。對(duì)于人工智能武器可接受的范圍,國際社會(huì)必須嚴(yán)肅考慮,認(rèn)真聽取科學(xué)家、哲學(xué)家和電腦工程師的建議。現(xiàn)在,美國國防部已經(jīng)在某種意義上禁止完全自治的武器,是時(shí)候在國際層面進(jìn)行細(xì)化和擴(kuò)大禁止范圍。當(dāng)然,任何一項(xiàng)國際禁令都無法完全遏制人工智能武器的擴(kuò)散,但我們沒有任何理由放任不管,不簽署任何禁令。既然我們有充分的理由禁止生化武器和空尖彈,我們同樣有充分的理由對(duì)人工智能武器說“不”。