人工智能需要安全走向前沿
特斯拉機(jī)器人助手的引人注目的揭幕引發(fā)了關(guān)于人工智能安全以及如何在城市街道和工廠車間釋放自動(dòng)化系統(tǒng)之前對(duì)其進(jìn)行測(cè)試和驗(yàn)證的持續(xù)辯論。
在第一輪 AI 夸張中的恐懼集中在惡意的、自我復(fù)制的、類似 HAL 的機(jī)器上,最終壓倒了它們的創(chuàng)造者或在戰(zhàn)場(chǎng)上不受控制地漫游。此后,辯論變得更加務(wù)實(shí),對(duì)安全的關(guān)注更加尖銳和受歡迎。具體來說,我們?nèi)绾我栽试S人類操作員信任應(yīng)用程序中的自主系統(tǒng)的方式促進(jìn)人工智能安全,這些應(yīng)用程序目前仍遠(yuǎn)未完成關(guān)鍵任務(wù),需要 99.999% 的可靠性?
專家指出,監(jiān)管機(jī)構(gòu)采取的積極的第一步是認(rèn)識(shí)到涉及使用駕駛輔助系統(tǒng)的車輛的人工智能事件是“碰撞”,而不是“事故” ?!捌囆袠I(yè)正在走向'崩潰',因?yàn)檫@是某人的錯(cuò)或某人的錯(cuò),”朱利葉森說?!啊鹿省@個(gè)詞經(jīng)常讓人搭便車?!?
在一系列關(guān)于人工智能安全的政策簡(jiǎn)報(bào)中,喬治城大學(xué)安全與新興技術(shù)中心的研究人員試圖確定實(shí)現(xiàn)更安全人工智能系統(tǒng)的工程要求。
“今天的尖端人工智能系統(tǒng)在很多方面都很強(qiáng)大,但在其他方面卻非常脆弱,”作者 Zachary Arnold 和 Helen Toner 指出?!八麄兺ǔH狈ΤWR(shí),很容易被愚弄或破壞,并以意想不到和不可預(yù)測(cè)的方式失敗。
研究人員總結(jié)說:“通常很難或不可能理解他們?yōu)槭裁磿?huì)這樣行事,”并補(bǔ)充說,對(duì)易出錯(cuò)的人工智能系統(tǒng)的信任程度“可能會(huì)產(chǎn)生可怕的后果”。
一個(gè)核心問題是理解黑盒 AI 系統(tǒng)的功能——或者被稱為 AI 的“可解釋性”,就像數(shù)學(xué)老師要求學(xué)生“展示他們的作品”一樣。
因此,人工智能研究人員提議建立一個(gè)國(guó)家人工智能測(cè)試平臺(tái),開始設(shè)置參數(shù),以確?;谏疃葘W(xué)習(xí)的人工智能系統(tǒng)安全。“今天,沒有普遍接受的安全人工智能定義,也沒有標(biāo)準(zhǔn)方法來測(cè)試現(xiàn)實(shí)世界人工智能系統(tǒng)的事故風(fēng)險(xiǎn),”作者阿諾德和托納總結(jié)道。
雖然有經(jīng)過驗(yàn)證的方法可以測(cè)試用于故障安全應(yīng)用(如飛機(jī)自動(dòng)駕駛儀)的早期專家系統(tǒng),但沒有人工智能等價(jià)物?!斑@些方法不適用于深度學(xué)習(xí),”托納在接受采訪時(shí)強(qiáng)調(diào)。
“我們認(rèn)為,當(dāng)我們開始在錯(cuò)誤或故障可能非常嚴(yán)重的地方[使用]這些系統(tǒng)時(shí),應(yīng)該投入更多的精力來開發(fā)新的方法,”她補(bǔ)充道?!拔覀冇修k法提前測(cè)試 [AI 系統(tǒng)],并確保我們知道它們能做什么和不能做什么,以及它們什么時(shí)候可以工作,什么時(shí)候不能工作。”
像特斯拉這樣的先驅(qū)公司可能會(huì)接受這種觀點(diǎn),即使他們用特斯拉機(jī)器人這樣的原型推動(dòng)人工智能技術(shù)的發(fā)展。特斯拉首席執(zhí)行官埃隆馬斯克表示,機(jī)器人原型可能會(huì)在明年推出。
在宣傳他的特斯拉自動(dòng)駕駛儀“出奇地好”的可預(yù)測(cè)性的同時(shí),監(jiān)管機(jī)構(gòu)開始質(zhì)疑這一斷言,馬斯克承認(rèn)在汽車制造商最近的人工智能日活動(dòng)中宣布特斯拉 Bot 會(huì)產(chǎn)生意想不到的后果。
特斯拉機(jī)器人“當(dāng)然是為了友好,”馬斯克保證道?!拔覀儗⑵湓O(shè)置為——在機(jī)械層面,在物理層面——你可以逃避它,”一項(xiàng)引起一些笑聲的安全措施,“并且很可能壓倒它。希望這永遠(yuǎn)不會(huì)發(fā)生,但你永遠(yuǎn)不知道?!?
馬斯克有點(diǎn)避諱,他也應(yīng)該這樣做。人工智能安全研究人員指出,原因之一是 Tesla Bot 和其他最近的例子代表了早期的進(jìn)化步驟。
“人工智能的工程學(xué)科實(shí)際上并不存在,”喬治城人工智能中心的托納說?!皼]有技術(shù)標(biāo)準(zhǔn),不了解我們想要達(dá)到什么性能,以及我們?nèi)绾闻袛辔覀兪欠駥?shí)現(xiàn)了它?!?
Toner 補(bǔ)充說,人工智能的發(fā)展正在達(dá)到一個(gè)拐點(diǎn)?!八@然對(duì)很多事情都有用,但到目前為止,我們只將它用于大多數(shù)相當(dāng)?shù)偷馁€注。問題是,我們能否解決可靠性 [和] 可信賴性挑戰(zhàn),以解鎖更廣闊的高風(fēng)險(xiǎn)應(yīng)用空間?