目前人臉識(shí)別技術(shù)還欠火候,要實(shí)際應(yīng)用還有待提升
從線上支付、考勤打卡到抓捕逃犯,不可否認(rèn),面部識(shí)別技術(shù)已經(jīng)深入到我們?nèi)粘I畹姆椒矫婷?,但同時(shí),它也存在爭(zhēng)議,隱私問(wèn)題一直是眾多AI技術(shù)需要面對(duì)的難題。近日,亞馬遜因向執(zhí)法機(jī)構(gòu)提供面部掃描技術(shù)而成為頭條新聞。
對(duì)人工智能監(jiān)視系統(tǒng)的擔(dān)憂,促使研究人員開(kāi)發(fā)了一種針對(duì)它們的工具。近日多倫多大學(xué)教授帕勒姆·阿比拉和研究生阿維舍克·博斯發(fā)明了一種算法,可讓人臉識(shí)別率降至0.5%。
有了這項(xiàng)“反人臉識(shí)別”技術(shù),我們能夠決定自己的臉是否會(huì)被識(shí)別嗎?
反人臉識(shí)別不陌生
其實(shí)這種反人臉識(shí)別技術(shù)早在前幾年就已出現(xiàn)。2016年11月,卡內(nèi)基梅隆大學(xué)研究人員開(kāi)發(fā)出一款反面部識(shí)別眼鏡。這種造價(jià)0.22美元的特制眼鏡可以用光滑的照片紙打印,團(tuán)隊(duì)稱,眼鏡可讓攝像頭前的人顯示成為另一個(gè)人,在對(duì)商用級(jí)臉部識(shí)別軟件的測(cè)試中,誤認(rèn)人臉的成功率達(dá)到100%。
2017年,麻省理工學(xué)院和日本九州大學(xué)的研究人員創(chuàng)建了一種叫做EOT(ExpectaTIon Over TransformaTIon)的算法,成功騙過(guò)谷歌AI系統(tǒng),讓系統(tǒng)將一幅3D打印的海龜照片標(biāo)記為步槍,將3D棒球認(rèn)成濃縮咖啡,而可愛(ài)的貓咪則有時(shí)被當(dāng)做鱷梨醬。
有研究人員擔(dān)憂,AI對(duì)3D物品的錯(cuò)認(rèn),以及被設(shè)計(jì)用來(lái)欺騙機(jī)器視覺(jué)系統(tǒng)的對(duì)抗性圖像技術(shù)的突破,讓面部識(shí)別系統(tǒng)正面臨新一輪挑戰(zhàn)。在上述實(shí)驗(yàn)中,將烏龜錯(cuò)認(rèn)成步槍正是對(duì)抗性圖像的一個(gè)例子,多倫多大學(xué)教授帕勒姆·阿比拉使用的也是這種方法。
對(duì)抗訓(xùn)練技術(shù)受追捧
勒姆·阿比拉在最近發(fā)表的《基于約束最優(yōu)化的神經(jīng)網(wǎng)絡(luò)的反面部識(shí)別系統(tǒng)》中介紹,他們?cè)谝粋€(gè)超過(guò)600張臉的行業(yè)標(biāo)準(zhǔn)庫(kù)中進(jìn)行了系統(tǒng)訓(xùn)練,用于測(cè)試的600張臉包含了不同種族、不同光照條件以及不同環(huán)境。
文章第一作者阿維舍克·博斯在接受媒體采訪時(shí)也表示,測(cè)試的關(guān)鍵在于訓(xùn)練兩個(gè)神經(jīng)網(wǎng)絡(luò)相互對(duì)立,一個(gè)創(chuàng)建越來(lái)越強(qiáng)大的面部檢測(cè)系統(tǒng),而另一個(gè)創(chuàng)建更強(qiáng)大的工具來(lái)破壞面部檢測(cè)。
現(xiàn)代臉部識(shí)別軟件主要依賴于深度神經(jīng)網(wǎng)絡(luò)--一種從大量信息中學(xué)習(xí)模式的人工智能技術(shù)。在被呈現(xiàn)過(guò)數(shù)百萬(wàn)張人臉之后,該類軟件就能習(xí)得臉部概念,懂得如何分辨不同的臉。“這種反面部識(shí)別系統(tǒng)實(shí)際上就是通過(guò)生成式對(duì)抗網(wǎng)絡(luò)去形成一個(gè)最小最優(yōu)的變化,從而對(duì)現(xiàn)在面部識(shí)別的深度網(wǎng)絡(luò)進(jìn)行攻擊。”中科視拓(北京)科技有限公司CEO劉昕說(shuō),但這種探索更多地還處于學(xué)術(shù)研究階段。
要實(shí)際應(yīng)用還欠火候
劉昕說(shuō),上面提的一些反面部識(shí)別系統(tǒng),訓(xùn)練過(guò)程要求識(shí)別人臉的網(wǎng)絡(luò)是公開(kāi)的,并且攻擊次數(shù)是不受限制的,而在實(shí)際中,這顯然難以實(shí)現(xiàn)。在實(shí)際環(huán)境中,面部識(shí)別系統(tǒng)是一個(gè)隱蔽系統(tǒng),而且也不會(huì)允許被這樣反復(fù)攻擊。
“反人臉識(shí)別技術(shù)的誕生實(shí)質(zhì)是對(duì)于隱私的擔(dān)憂。”劉昕說(shuō),目前,人工智能產(chǎn)業(yè)尚處于初級(jí)階段,技術(shù)的發(fā)展都具有兩面性,如何防止人們利用AI技術(shù)進(jìn)行破壞行為是整個(gè)行業(yè)都需要思考的問(wèn)題。
劉昕認(rèn)為,這不僅需要立法層面的支持,也需要倫理方面的討論。同時(shí)對(duì)人工智能人才也要進(jìn)行道德倫理教育,在立法的同時(shí),通過(guò)行業(yè)自律來(lái)規(guī)避隱私泄露的風(fēng)險(xiǎn)。