不久前,某知名品牌汽車被曝其自動駕駛系統(tǒng)無法識別白色貨車箱體這樣類似于“一堵墻”的障礙物。在自動駕駛中,行人、車輛被漏檢或者未能及時被檢測到,都可能導(dǎo)致交通事故的產(chǎn)生。此外,安防漏檢危險人物與物品也可能導(dǎo)致安全隱患。這些風(fēng)險都提示,AI視覺的安全性值得重視。在研究AI視覺穩(wěn)定性的過程中,阿里安全圖靈實驗室的研究人員札奇發(fā)現(xiàn),AI視覺還有一個盲區(qū):利用算法自動鑒別圖片關(guān)鍵信息,并巧妙刪除,就像給圖片“打碼”一樣,AI
視覺系統(tǒng)就會無法識別該圖片。最近,這項研究成果被AI頂會ICCV 2021收錄。札奇的研究源于逛商場看到樂高玩具迸發(fā)的靈感。當(dāng)時,她有一個疑問:“人眼如何識別‘馬賽克’式樣的玩具?還有早期的超級馬里奧,雖然只是由幾個簡單像素組成,人卻可以正確識別這種抽象的表達(dá)。AI模型面對‘馬賽克’式的圖片,能正確識別嗎?”札奇進(jìn)行了驗證。她發(fā)現(xiàn),傳統(tǒng)對圖片“加工”以騙過AI的方法是給圖片加上“噪音”,相當(dāng)于在當(dāng)前圖片上針對模型"亂涂亂畫",讓AI無法識別,但原圖片本身的關(guān)鍵信息沒有丟失,只要用“橡皮擦”擦一擦,AI依然能識別。如果反向操作,刪除圖片的關(guān)鍵信息,就像打“馬賽克”,圖片的關(guān)鍵信息已經(jīng)丟失,那么AI無論如何也難以識別。這意味著,針對“打碼攻擊”,難以有防御措施。如下圖所示,給貓咪圖片加上噪聲,去除噪聲后,AI模型依然能認(rèn)出這是一只貓咪。相反,基于信息丟失的對抗攻擊在去噪聲的操作下基本沒什么變化,AI視覺模型“識別無能”。?
傳統(tǒng)加噪音(上)與“打碼”刪信息(下)對比,
“打碼”攻擊“無法還原”專注對AI的對抗樣本和模型安全性進(jìn)行研究的阿里安全高級算法專家越豐提醒,除了AI視覺場景,真實場景中也可能存在這種對抗攻擊,例如針對某知名PS軟件,只要提供具備對抗攻擊性質(zhì)的JPEG量化表,就能產(chǎn)出有“攻擊性”的圖片。此外,在實際場景中,圖片信息丟失是常見現(xiàn)象,例如用戶將圖片以JPEG形式上傳到網(wǎng)絡(luò),就有一定的信息丟失,可能不經(jīng)意間就會制造一個“對抗樣本”。越豐認(rèn)為,這對當(dāng)前內(nèi)容安全場景的AI識別而言,都是不小的挑戰(zhàn)。“比如有人將涉黃賭毒圖片以損失部分信息的形式上傳到網(wǎng)絡(luò),人眼依然能領(lǐng)會含義,但AI卻沒能正確識別,這對構(gòu)建清朗、健康網(wǎng)絡(luò)環(huán)境而言,就是一種對抗?!痹截S舉例道,AI安全行業(yè)應(yīng)該警惕這種類型的對抗。當(dāng)然,“致盲AI”不是研究人員的目標(biāo),研究人員最終還是想發(fā)現(xiàn)AI模型的脆弱性,進(jìn)一步提升AI安全?!霸贏I安全前沿技術(shù)上進(jìn)行探索,一是為了讓AI更安全,二是為了讓AI助力安全,三是為解決具體社會問題尋找提效的新途徑?!卑⒗锇踩珗D靈實驗室負(fù)責(zé)人薛暉提醒,相比“事后彌補”,安全應(yīng)前置,從源頭守衛(wèi)安全,對前沿技術(shù)進(jìn)行研究布局,以科技創(chuàng)新造就最好的網(wǎng)絡(luò)安全。