怎樣讓人工智能解釋自己
掃描二維碼
隨時(shí)隨地手機(jī)看文章
由于不久前的劍橋分析丑聞鬧得人心惶惶,許多人希望GDPR將成為全球數(shù)據(jù)隱私新標(biāo)準(zhǔn)的典范。目前一些行業(yè)領(lǐng)導(dǎo)者正在呼吁Facebook將GDPR標(biāo)準(zhǔn)應(yīng)用于其在非歐盟國(guó)家的業(yè)務(wù)。
但隱私只是圍關(guān)于數(shù)據(jù)驅(qū)動(dòng)系統(tǒng)之爭(zhēng)的一個(gè)方面,實(shí)際上機(jī)器學(xué)習(xí)支持系統(tǒng)的日益普及引發(fā)了一系列相關(guān)問(wèn)題,包括一個(gè)對(duì)社會(huì)產(chǎn)生很大影響且無(wú)法量化的問(wèn)題:偏見(jiàn)。
在我們的生活中,許多重要決策都是由某種系統(tǒng)做出的,很多系統(tǒng)都存在明顯的偏見(jiàn),無(wú)論這系統(tǒng)是人、機(jī)器還是二者的組合。機(jī)器學(xué)習(xí)在決策制度中的作用越來(lái)越大,這為我們提供了一個(gè)建立更少偏見(jiàn)的系統(tǒng)的機(jī)會(huì),當(dāng)然也面臨著加劇這一問(wèn)題的風(fēng)險(xiǎn)。
我們通常認(rèn)為計(jì)算機(jī)比人類更客觀、更公正。然而過(guò)去的幾年里,許多機(jī)器學(xué)習(xí)系統(tǒng)產(chǎn)生了帶有偏見(jiàn)或歧視的結(jié)果,人們對(duì)此也有著很多爭(zhēng)議。2016年時(shí)ProPublica曾報(bào)道,美國(guó)法院用來(lái)衡量被告再次犯罪可能性的機(jī)器學(xué)習(xí)算法,在對(duì)比背景相似的黑人與白人被告時(shí)會(huì)認(rèn)為黑人的“風(fēng)險(xiǎn)更高”,即使系統(tǒng)沒(méi)有提供有關(guān)被告種族的任何數(shù)據(jù)也依然如此。
雷鋒網(wǎng)不久前一篇名為《關(guān)于模型可解釋性的深入思考:從哪里來(lái),到哪里去?》的文章中,曾詳細(xì)介紹了學(xué)習(xí)出一個(gè)通用智能行動(dòng)者的潛力和局限性,算法公平方面細(xì)微的以及可以被真正規(guī)范化的挑戰(zhàn)。人們使用機(jī)器學(xué)習(xí)系統(tǒng)的目的是希望世界更公平、更有效率,而不是進(jìn)一步放大人類的偏見(jiàn)。
這就是為什么GDPR允許用戶可以要求解釋機(jī)器任何“合法或類似重要”的決策,希望解釋的權(quán)利能夠使“算法歧視”的受害者訴諸人權(quán),從而減輕這種偏見(jiàn)的影響。
但是生成這些類型的解釋——即創(chuàng)造可解釋的人工智能——是非常復(fù)雜的,而且即便系統(tǒng)對(duì)決策做出了解釋,也有一些評(píng)論家認(rèn)為“無(wú)法分辨它們是真的反對(duì)偏見(jiàn),還是僅僅是掩飾偏見(jiàn)。”
可解釋的人工智能以及GDPR是否會(huì)使技術(shù)更公平?如果不是,隨著機(jī)器學(xué)習(xí)的使用變得更加普遍,我們還有什么替代方法可以防范偏見(jiàn)?
機(jī)器學(xué)習(xí)中的偏見(jiàn)
關(guān)于偏見(jiàn)的討論常常被過(guò)分簡(jiǎn)化為諸如“種族主義算法”這樣的詞語(yǔ),但其實(shí)問(wèn)題不在于算法本身,而是數(shù)據(jù)研究團(tuán)隊(duì)提供給機(jī)器的數(shù)據(jù)。
例如,收集以往的數(shù)據(jù)是數(shù)據(jù)科學(xué)項(xiàng)目的一個(gè)共同起點(diǎn),但“歷史數(shù)據(jù)往往偏向于我們不希望轉(zhuǎn)移到未來(lái)的方式,”加州大學(xué)伯克利分校電子工程與計(jì)算機(jī)科學(xué)學(xué)院助理教授、加州大學(xué)伯克利分校崛起實(shí)驗(yàn)室的創(chuàng)始人之一Joey Gonzalez說(shuō)。
假設(shè)某公司建立了一個(gè)篩選求職者的機(jī)器學(xué)習(xí)模型,并基于公司過(guò)去篩選類似職位求職者的數(shù)據(jù)集對(duì)模型進(jìn)行培訓(xùn)。如果該公司的HR曾多次拒絕過(guò)那些試圖重返職場(chǎng)的前全職父母,則培訓(xùn)的結(jié)果很有可能會(huì)讓模型也將這些存在長(zhǎng)期就業(yè)缺口的人排除在外。
如果更進(jìn)一步,這將導(dǎo)致模型過(guò)多的拒絕女性求職者(全職父母多為女性)從而造成性別比例失調(diào),即使性別并不是模型培訓(xùn)數(shù)據(jù)集中的特征。因此在這一領(lǐng)域中,使用機(jī)器學(xué)習(xí)將進(jìn)一步放大人類的偏見(jiàn)。
而這就是可解釋的人工智能的用武之地。如果操作人員能夠檢查“推理”算法,就有可能在算法產(chǎn)生嚴(yán)重偏差之前進(jìn)行糾正。
讓機(jī)器解釋自己
由于機(jī)器學(xué)習(xí)系統(tǒng)的行為由它學(xué)到的數(shù)據(jù)所驅(qū)動(dòng),所以它的工作方式與人們編寫(xiě)的標(biāo)準(zhǔn)計(jì)算機(jī)程序有很大不同。人們可以測(cè)量一個(gè)機(jī)器學(xué)習(xí)系統(tǒng)的準(zhǔn)確性,但是對(duì)于這種系統(tǒng)實(shí)際做出決策的可見(jiàn)性是有限的。
(雷鋒網(wǎng)注:和人腦類似,人腦的思考是由特定區(qū)域內(nèi)神經(jīng)元的復(fù)雜放電而產(chǎn)生,但人們并不確切知道具體怎樣的神經(jīng)元活動(dòng)會(huì)得出怎樣的思考。所以當(dāng)人們想驗(yàn)證決策正確性時(shí)并不會(huì)去掃描大腦,而是通過(guò)相關(guān)數(shù)據(jù)以及過(guò)往的經(jīng)驗(yàn)判斷。)
可解釋的人工智能要求機(jī)器學(xué)習(xí)算法可以自己證明決策的正確性。華盛頓大學(xué)的研究人員在2016年構(gòu)建了一種稱為L(zhǎng)IME的解釋技術(shù),并在由Google構(gòu)建的圖像分類神經(jīng)網(wǎng)絡(luò)Inception Network上進(jìn)行了測(cè)試。
LIME在做出圖像分類決策時(shí),不會(huì)考慮觸發(fā)神經(jīng)網(wǎng)絡(luò)中的哪個(gè)神經(jīng)元,而是在圖像本身中搜索解釋。它會(huì)將原始圖像的不同部分變黑,并通過(guò)IncepTIon將產(chǎn)生的“擾動(dòng)”圖像反饋回來(lái),以檢查哪些擾動(dòng)將算法拋離最遠(yuǎn)。
通過(guò)這種方法,LIME可以將初始網(wǎng)絡(luò)分類決策歸因于原始圖片的特定特征。例如對(duì)于青蛙的圖像,LIME發(fā)現(xiàn)抹除部分臉部會(huì)讓初始網(wǎng)絡(luò)很難識(shí)別圖像,這表明最初的分類決策大多是基于青蛙的臉。
雖然像LIME這樣的特征歸屬方法并不能完全解釋算法的決策,并且在各種類型的機(jī)器學(xué)習(xí)模型上都不能工作的很好,但至少在圖像分類方面,它朝著正確方向邁出了一步。
據(jù)雷鋒網(wǎng)了解,美國(guó)的人臉識(shí)別系統(tǒng)對(duì)黑人的面部識(shí)別遠(yuǎn)不如對(duì)白人那般精確(訓(xùn)練算法時(shí)用的圖像多為白人),這增加了黑人被監(jiān)控攝像誤認(rèn)導(dǎo)致被逮捕的可能性,嚴(yán)重者甚至?xí)a(chǎn)生誤判。更好的解釋這些算法決策并加以監(jiān)督,顯然將有助于避免此類不良結(jié)果。
人們還需要做什么
雖然可解釋的人工智能和神經(jīng)網(wǎng)絡(luò)的特征歸因很有發(fā)展前景,但消除人工智能的偏見(jiàn)最終會(huì)歸結(jié)為一件事:數(shù)據(jù)。
如果算法的訓(xùn)練數(shù)據(jù)不能公平的覆蓋開(kāi)發(fā)者想要服務(wù)的人群,系統(tǒng)就很有可能出現(xiàn)偏差。如果訓(xùn)練數(shù)據(jù)隱含了歷史上的不公平現(xiàn)象,該算法就會(huì)學(xué)習(xí)進(jìn)而延續(xù)甚至放大這些問(wèn)題。
雖然GDPR和類似的法規(guī)對(duì)組織如何使用數(shù)據(jù)進(jìn)行了一些控制,但它們也無(wú)法阻止這些組織使用已經(jīng)存在偏見(jiàn)的數(shù)據(jù)集。
算法的發(fā)展當(dāng)然對(duì)克服偏見(jiàn)有所幫助,但歸根結(jié)底責(zé)任并不在數(shù)學(xué)結(jié)構(gòu)、軟件或硬件,而是在于這些決策系統(tǒng)的設(shè)計(jì)者和操作者,人們有責(zé)任明智而公平地收集,存儲(chǔ)和使用這些數(shù)據(jù)。
從某種意義上說(shuō),減少機(jī)器學(xué)習(xí)算法中的偏見(jiàn)不僅需要人工智能的進(jìn)步,還需要我們對(duì)人類多樣性理解的進(jìn)步。
為了開(kāi)發(fā)公平和負(fù)責(zé)任的人工智能,技術(shù)人員需要社會(huì)學(xué)家,心理學(xué)家,人類學(xué)家和其他專家的幫助,他們能夠洞察偏見(jiàn)對(duì)人類生活的影響,并告訴人們?nèi)绾伪苊庾屍?jiàn)影響機(jī)器學(xué)習(xí)系統(tǒng)。
技術(shù)本身并不能解決社會(huì)問(wèn)題,但是通過(guò)不同學(xué)科間的合作,研究者和開(kāi)發(fā)者可以創(chuàng)建有利于更公平社會(huì)的機(jī)器學(xué)習(xí)技術(shù)。