人工智能會成為殺人機器人嗎
還記得科幻電影《終結(jié)者2》里天網(wǎng)對人類的倒戈,以及《復(fù)仇者聯(lián)盟2》里人工智能機器人奧創(chuàng)對人類展開的毀滅計劃嗎?為了避免這一天可能的到來,全球人工智能領(lǐng)域的研究人員 也不不斷努力。
2018年4 月 4 日,3100 名谷歌員工聯(lián)名發(fā)出公開信,要求谷歌退出美國國防部人工智能軍事項目——Maven 計劃。在這封谷歌員工聯(lián)名信中,要求谷歌不但應(yīng)立刻退出Maven 計劃,而且應(yīng)向所有人承諾,永遠不會參與研發(fā)任何類型的戰(zhàn)爭科技。
幾乎同一時間,韓國科學(xué)技術(shù)院大學(xué)與軍工企業(yè)“韓華 Systems”合作研發(fā)自主武器,以便在無人控制的情況下搜索并消除目標,此舉遭到全球50多名人工智能學(xué)者聯(lián)名抵制。隨后, 2018年4月9日,聯(lián)合國《特定常規(guī)武器公約》政府專家小組在日內(nèi)瓦召開會議,專項討論“殺人機器人”可能帶來的影響。據(jù)稱,此次會議跟此前韓國科學(xué)技術(shù)院大學(xué)宣布開發(fā)“殺人機器人”有關(guān)。
那么,以人工智能為基礎(chǔ)的軍事系統(tǒng),能否代替人類做出恰當(dāng)?shù)能娛聸Q策?人工智能與軍事真的不能共存嗎?
一、軍事技術(shù)先行
在遙遠的未來,人工智能也許會像一些科幻電影中描繪的那樣,使后人類戰(zhàn)爭從科幻變成現(xiàn)實。目前,已經(jīng)出現(xiàn)了一些趨勢性端倪。
何為趨勢性端倪?近年來人工智能在軍事領(lǐng)域的應(yīng)用已經(jīng)越來越多,人工智能在某些領(lǐng)域已經(jīng)表現(xiàn)了超越人類的能力,而這一趨勢開始呈現(xiàn)了不可逆轉(zhuǎn)性。在2016年舉行的一次模擬空戰(zhàn)對抗比賽中,人工智能系統(tǒng)通過靈活、迅捷的動作擊敗了具備更強武器系統(tǒng)的退役戰(zhàn)斗機飛行員。 有專家表示,這個結(jié)果具有深遠意義,就像一個象棋大師輸給了電腦。
目前,在武器裝備和指揮控制方面,人工智能主要體現(xiàn)在陸地、海洋、太空等各類作戰(zhàn)機器人的研發(fā)應(yīng)用和各類智能炸彈的研發(fā)領(lǐng)域。隨著數(shù)據(jù)挖掘技術(shù)、大規(guī)模并行算法及人工智能技術(shù)的不斷完善并廣泛應(yīng)用于軍事上,情報、決策與作戰(zhàn)一體化將取得快速進展。實際上,韓國科研機構(gòu)研制的能在無人控制的情況下搜索并清除目標的自主武器就是典型應(yīng)用,也是當(dāng)前人工智能軍事化的最主要應(yīng)用。
能夠自主運作的軍用機器人被歸為致命性自主武器系統(tǒng)(LAWS),目前 ,各國發(fā)展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器系統(tǒng),在某種程度上都屬于LAWS的范疇。這些武器裝備體現(xiàn)出了較高的應(yīng)用價值。 被人工智能技術(shù)賦能的軍事機器人必將改變未來戰(zhàn)爭形態(tài),促進軍事理論、體制編制、作戰(zhàn)人員、戰(zhàn)法戰(zhàn)術(shù)等多方面的變革,使未來戰(zhàn)爭呈現(xiàn)出“無人化”“智能化”的特點。
二、人工智能用于軍事潮流勢不可擋
在《終結(jié)者》《黑客帝國》《我,機器人》等這些經(jīng)典科幻電影中,人工智能往往作為反面角色出現(xiàn),并給人類帶來極大危害。
在2017年的人工智能國際會議上,特斯拉首席執(zhí)行官馬斯克、蘋果聯(lián)合創(chuàng)始人沃茲、研發(fā)“阿爾法狗”的深度思維公司哈薩比斯等人簽署公開信,呼吁聯(lián)合國應(yīng)像禁止生化武器一樣,禁止在戰(zhàn)爭中使用致命的自主武器和“殺手機器人”。而剛剛?cè)ナ赖闹祗w物理學(xué)家霍金也曾指出,他不認為發(fā)展人工智能一定能讓人類朝好的方向發(fā)展,脫離人類控制的機器很難被阻止住。
雖然人工智能技術(shù)對于保障國家安全具有巨大潛力,但目前人工智能技術(shù)還不成熟,需要更進一步的研究。在研究過程中,人工智能技術(shù)表現(xiàn)出了危險性與未知性,比如無人駕駛汽車的傷人事故,而反人工智能軍事化的思潮則反映了人們對這一技術(shù)前景的擔(dān)憂、焦慮,甚至恐懼。
由于人工智能技術(shù)的發(fā)展局限,機器人可能將在環(huán)境或執(zhí)行程序復(fù)雜的情況中出現(xiàn)失控現(xiàn)象,比如單獨執(zhí)行作戰(zhàn)任務(wù)、人機深度交流等軍用和民用領(lǐng)域。一個典型的例子就是2007年10月,美軍第三機步師一部帶著3臺“利劍”機器人進攻一個反美武裝盤踞的據(jù)點時,由于沒有及時更換軟件,其中一臺“利劍”竟把槍口瞄準美軍操作者,而且無論操作員如何發(fā)出“行動取消”的指令,失控的“利劍”就是停不下來,直至用火箭筒把它炸翻才化險為夷。
盡管人工智能在當(dāng)下還存在種種問題,但反思技術(shù)的思潮在人類歷史上技術(shù)革命時期都曾出現(xiàn)過,比如工業(yè)革命時期的盧徳運動。這一現(xiàn)象的本質(zhì)原因在于技術(shù)異化對人類的威脅。目前來看,人工智能在軍事領(lǐng)域的應(yīng)用潮流勢不可擋,在可預(yù)見的時期內(nèi),人工智能將在情報偵察、后勤保障、無人作戰(zhàn)系統(tǒng)等領(lǐng)域發(fā)揮重要作用。
三、走出倫理泥潭
早在十年前,就有專家警示,已有越來越多的國家投入到軍用機器人的研究與開發(fā)中去,世界已在不知不覺中滑進了一場機器人軍備競賽。
毋庸置疑,軍事機器人相比于士兵主要在功能、體能、效能方面具有優(yōu)勢。軍事機器人可以同時承擔(dān)多項復(fù)雜任務(wù),作戰(zhàn)可以更加持久,在程序設(shè)定完備后能夠高效精準達成目標,失誤率較低。特別是,完全自主機器人具有持續(xù)作戰(zhàn)時間長、反應(yīng)能力快、生存能力強等優(yōu)勢,將會進一步增加戰(zhàn)爭的烈度與強度,與人類戰(zhàn)士相比具有巨大的不對稱優(yōu)勢。
然而,有關(guān)戰(zhàn)爭責(zé)任的倫理問題就出現(xiàn)了,到底參戰(zhàn)的自主機器人是不是戰(zhàn)斗員?又應(yīng)當(dāng)承擔(dān)何種戰(zhàn)爭責(zé)任?如果軍用機器人自己沒有辦法承擔(dān)責(zé)任,是否需要其“代理人”對其戰(zhàn)爭行為負責(zé)呢?這又引發(fā)了新的問題,誰是無人化戰(zhàn)爭中軍用機器人的“代理人”?到底是作戰(zhàn)部隊的程序開發(fā)與編寫者呢?還是戰(zhàn)場指揮官呢?相關(guān)戰(zhàn)爭責(zé)任的追究顯然已變成一個十分棘手的問題。
如果人工智能應(yīng)用于軍事是不可逆轉(zhuǎn)的科技浪潮。那么,我們應(yīng)該如何將可能產(chǎn)生的負面影響降至最低呢?對此,首先要堅持人機結(jié)合、以人為主的原則,人類應(yīng)當(dāng)保證對軍事機器人的控制權(quán),制定應(yīng)對意外事件的應(yīng)急機制,建立防范機器人失控的后臺程序。另外,應(yīng)當(dāng)加強人工智能的技術(shù)預(yù)測與評估,在充分試驗與分析的基礎(chǔ)上逐步推動人工智能技術(shù)的軍事應(yīng)用。