怎樣人工智能變得公平
掃描二維碼
隨時(shí)隨地手機(jī)看文章
算法是一面鏡子,映射了人類社會(huì)許多固有的偏見。
2014年,亞馬遜的工程師著手開發(fā)一款人工智能招聘軟件,利用算法和數(shù)據(jù)分析來篩選候選人,以此避免人類招聘官身上特有的“感情用事”問題。事與愿違,這款軟件雖避免了“感情用事”問題,卻在“偏見”上犯下更大的錯(cuò)誤軟件編寫者將人類招聘官的篩選模式寫入算法,現(xiàn)實(shí)世界中無意識(shí)的偏見也帶進(jìn)了機(jī)器。
隨著智能技術(shù)的不斷普及,算法做決策成為趨勢(shì)。避免人類社會(huì)的偏見映射到算法世界中,是當(dāng)下數(shù)字化生存中的重要命題。
此前,AI&Society專欄發(fā)布的《算法偏見:看不見的“裁決者”》試圖剖析算法偏見所帶來的問題,本文著重梳理當(dāng)前針對(duì)算法偏見的一些解決方案。
在機(jī)器學(xué)習(xí)過程中,算法偏見會(huì)從三個(gè)環(huán)節(jié)中被滲透:數(shù)據(jù)集的構(gòu)成缺乏代表性,工程師制定算法規(guī)則時(shí)、打標(biāo)者處理非結(jié)構(gòu)化素材,都有可能混入偏見。
在對(duì)500名機(jī)器學(xué)習(xí)領(lǐng)域工程師調(diào)查后得出結(jié)論:如今機(jī)器學(xué)習(xí)工程師面臨的最大問題之一是他們知道出了一些問題,但是不知道具體是哪里出了問題,也并不知道為什么會(huì)出現(xiàn)問題?!鼻拔④浌緢?zhí)行副總裁沈向洋指出。
由于算法偏見的不可知、不可查,讓反偏見這項(xiàng)工作變得棘手。在現(xiàn)有應(yīng)對(duì)體系下,無論是政策制度、技術(shù)突破還是創(chuàng)新型反制,都從不同的角度出發(fā)嘗試解決這個(gè)已經(jīng)超越技術(shù)的問題。
解決思路一:構(gòu)建更公正的數(shù)據(jù)集
不公正的數(shù)據(jù)集是偏見的土壤如果用于訓(xùn)練機(jī)器學(xué)習(xí)算法的數(shù)據(jù)集無法代表客觀現(xiàn)實(shí)情況,那么這一算法的應(yīng)用結(jié)果往往也帶有對(duì)特定群體的歧視和偏見。因此,算法偏見最直接的解決思路就是將原本不均衡的數(shù)據(jù)集進(jìn)行調(diào)整。
修正數(shù)據(jù)比例:利用更公平的數(shù)據(jù)源確保決策公正性。2018年6月,微軟與專家合作修正和擴(kuò)展了用于訓(xùn)練 Face API 的數(shù)據(jù)集。Face API 是微軟 Azure 中的一個(gè) API,它提供預(yù)訓(xùn)練算法以檢測(cè)、識(shí)別和分析人臉圖像中的屬性。新數(shù)據(jù)通過調(diào)整膚色、性別和年齡等所占的比例,將膚色較深的男性和女性之間的識(shí)別錯(cuò)誤率降低 20 倍,女性的識(shí)別誤差率降低 9 倍。也有公司嘗試通過構(gòu)建全球社區(qū)的方式優(yōu)化數(shù)據(jù)集。通過全球社區(qū),大規(guī)模地把某個(gè)組織可能在尋找的任何信息匯集起來,并以這種廣度和深度相結(jié)合的方式進(jìn)行,這使得引入截然不同的數(shù)據(jù)來訓(xùn)練AI系統(tǒng)成為可能,以幫助克服算法偏見等問題。
“大數(shù)據(jù)”與“小數(shù)據(jù)”結(jié)合:在數(shù)據(jù)量的基礎(chǔ)上確保精度。數(shù)據(jù)集不應(yīng)局限于粗放收集,而在于精準(zhǔn)把握。僅僅在數(shù)據(jù)的量上做文章往往不能帶來更加公正的結(jié)果,因?yàn)榇髷?shù)據(jù)分析側(cè)重相關(guān)性,導(dǎo)致在推導(dǎo)因果關(guān)系時(shí)容易出現(xiàn)誤差。引入小數(shù)據(jù)可以部分解決這個(gè)問題。小數(shù)據(jù)指聚焦于用戶個(gè)體的數(shù)據(jù)形態(tài),它更關(guān)注細(xì)節(jié),重視差異,能更呈現(xiàn)更加準(zhǔn)確的數(shù)據(jù),也避免推導(dǎo)因果關(guān)系時(shí)出現(xiàn)誤差。所以,將信息豐富的大數(shù)據(jù)與信息精準(zhǔn)的小數(shù)據(jù)相結(jié)合可在一種程度上避免誤差。
自主測(cè)試數(shù)據(jù)集:偵測(cè)數(shù)據(jù)集中偏見。麻省理工學(xué)院算機(jī)科學(xué)與人工智能實(shí)驗(yàn)室(簡(jiǎn)稱MIT SCAIL)的科學(xué)家發(fā)表了一篇題為《Uncovering and MitigaTIng Algorithmic Bias through Learned Latent Structure(通過學(xué)習(xí)潛在結(jié)構(gòu)提示并緩解算法偏見)》的論文,展示了DB-VEA(一種無監(jiān)督式學(xué)習(xí))可以通過重新采樣來自動(dòng)消除數(shù)據(jù)偏見的 AI 系統(tǒng)。該模型不僅學(xué)習(xí)面部特征(如膚色、頭發(fā)),還學(xué)習(xí)諸如性別和年齡等其它特征,所以分類準(zhǔn)確率明顯增加,且針對(duì)種族和性別的分類偏見明顯下降。
由此可見,構(gòu)建更加公正的數(shù)據(jù)集無疑是算法偏見根本性的解決方法之一,也是許多企業(yè)、學(xué)者努力的方向,并且目前在這一領(lǐng)域的確有所突破。
解決思路二:提升“算法透明度”
盡管算法模型由工程師編寫而成,但很多時(shí)候,人類并不明白計(jì)算機(jī)經(jīng)歷了怎樣的過程才得出某一特定結(jié)果,這就是機(jī)器學(xué)習(xí)中的“算法黑箱”問題。因此,要求企業(yè)提高算法模型的透明度,從中找出偏見“病因”,就成為了當(dāng)下解決“黑箱”困境的途徑之一。無論是通過政策、條款的“他律”,還是企業(yè)通過倫理“自律”還是技術(shù)探索,在對(duì)抗算法偏見時(shí),都持續(xù)聚焦于打開“黑箱”。
自律:企業(yè)的倫理主張
在過去兩年中,許多大型科技公司都發(fā)布了人工智能的應(yīng)用原則,其中均涉及到偏見治理的部分,可以將這類原則視為科技公司立場(chǎng)的聲明和自律的起點(diǎn)。微軟、谷歌和IBM,均強(qiáng)調(diào)算法的透明性和公平性。值得說明的是,微軟設(shè)立人工智能與道德標(biāo)準(zhǔn)(AETHER)委員會(huì)來落實(shí)其原則,并計(jì)劃未來推出的每一個(gè)人工智能產(chǎn)品都要經(jīng)過人工智能道德倫理審查。
也有企業(yè)采用委員會(huì)之外的機(jī)制。谷歌推出Model Cards功能也是對(duì)提升透明度的回應(yīng)。Model Cards類似算法說明書,對(duì)采用的算法進(jìn)行解釋,告知其優(yōu)點(diǎn)和局限性,甚至在不同數(shù)據(jù)集中的運(yùn)算結(jié)果。
他律:監(jiān)督過程透明與結(jié)果正義
2018年5月25日正式生效的《歐盟一般數(shù)據(jù)保護(hù)條例》(GDPR),2018年8月30日英國政府更新的《數(shù)據(jù)倫理框架》,要求算法需要具備一定的公開性、透明性與可解釋性。2019年4月10日,美國國會(huì)兩院議員提出《算法問責(zé)法案》,要求大型科技公司評(píng)估其自動(dòng)決策系統(tǒng)帶來的影響,并消除其中因種族、膚色、宗教、政治信仰、性別或其它特性差異而產(chǎn)生的偏見。
一些公益組織也因意識(shí)到算法偏見的危害性,幫助企業(yè)建立機(jī)制保障算法公正。算法正義聯(lián)盟(Algorithm JusTIce League)將企業(yè)應(yīng)遵守的行為概括和濃縮成了可以簽署的協(xié)議,通過問責(zé)算法的設(shè)計(jì)、開發(fā)和部署者,在實(shí)踐中改善現(xiàn)有算法,并檢查企業(yè)提升成果。而這一手段的確為算法糾偏起到了敦促作用:其創(chuàng)始人Joy Buolamwini在評(píng)估IBM算法后將結(jié)果反饋,并在一天內(nèi)收到了IBM回應(yīng)稱會(huì)解決這一問題。之后當(dāng)Buolamwini重新評(píng)估該算法時(shí),發(fā)現(xiàn)IBM的算法對(duì)于少數(shù)群體面部識(shí)別的準(zhǔn)確率有了明顯提升:識(shí)別深色男性的準(zhǔn)確率從88%躍升至99.4%,深色女性的準(zhǔn)確率從65.3%升至83.5%。
“算法透明”不是滿分答案?
然而,通過政策條例和倫理準(zhǔn)則提升算法透明度,依然存在一些局限性。首先,要求算法具備可解釋性與可能企業(yè)的利益產(chǎn)生強(qiáng)烈沖突。芝加哥大學(xué)數(shù)據(jù)科學(xué)與公共政策中心主任 Rayid Ghani認(rèn)為,簡(jiǎn)單地公布一個(gè)模型的所有參數(shù)并不能提供對(duì)其工作機(jī)制的解釋在某些情況下,透露太多關(guān)于算法工作原理的信息可能會(huì)讓不懷好意的人攻擊這個(gè)系統(tǒng)。2019年12月的一篇論文也指出,解釋黑箱算法的兩大技術(shù)LIME和SHAP的變體有可能遭到黑客入侵,這意味著“AI做出的解釋可能被蓄意篡改,導(dǎo)致人們對(duì)模型及其給出的解釋失去信任”。
第二,問責(zé)法案的核心在于促成企業(yè)自查自糾。但這種自上而下的制度無疑為企業(yè)增加了巨額工作量,在一輪輪審查評(píng)估中,技術(shù)進(jìn)度將受到掣肘,企業(yè)的創(chuàng)新力也會(huì)被影響。
解決思路三:技術(shù)創(chuàng)新反偏見
當(dāng)偏見被隱藏在無數(shù)代碼中時(shí),工程師們想到用技術(shù)本身解決技術(shù)問題。這一途徑并非是從偏見來源入手,而是創(chuàng)造性地利用技術(shù)手段偵測(cè)偏見、解除偏見。
單詞嵌入解決搜索中的性別偏見:微軟研究人員從新聞、網(wǎng)頁數(shù)據(jù)中的文本,發(fā)現(xiàn)詞匯之間在建立關(guān)聯(lián)時(shí)表現(xiàn)出一些明顯特征,例如“sassy(刁蠻)”、“knitTIng(編織)”這樣的詞更靠近女性,而“hero(英雄)”、“genius(天才)”更靠近男性。之所以會(huì)有這種現(xiàn)象,原因在于訓(xùn)練算法用的基準(zhǔn)數(shù)據(jù)集通常是來自新聞和網(wǎng)頁的數(shù)據(jù)本身,就存在著由語言習(xí)慣造成的“性別偏見”,算法也自然“繼承”了人類對(duì)這些詞匯理解的性別差異。微軟提出了一個(gè)簡(jiǎn)單易行的方案:在單詞嵌入中,刪除區(qū)分“他”和“她”的判斷維度,用于降低“偏見的展示”。當(dāng)然,這樣“簡(jiǎn)單粗暴”的方式只能運(yùn)用在文本搜索領(lǐng)域,在更多實(shí)際應(yīng)用場(chǎng)景下,人工智能的“黑箱”特性使性別或種族與更多更復(fù)雜的參數(shù)相勾連,因此很難通過直接刪除來完成偏見的剔除。
通過差分測(cè)試(differenTIal testing)暴露系統(tǒng)缺陷:哥倫比亞大學(xué)的研究者開發(fā)了一款名為DeepXplore的軟件,它可以通過“哄騙”系統(tǒng)犯錯(cuò),以暴露算法神經(jīng)網(wǎng)絡(luò)中的缺陷。DeepXplore使用了差分測(cè)試(differential testing),一種比較多個(gè)不同系統(tǒng)并查看它們對(duì)應(yīng)輸出差異的概念:DeepXplore以不同的方式看待事物,如果其他模型都對(duì)給定的輸入做出一致的預(yù)測(cè),而只有一個(gè)模型對(duì)此做出了不同的預(yù)測(cè),那么這個(gè)模型就會(huì)被判定有一個(gè)漏洞。這一研究為打開黑箱做出了重要的貢獻(xiàn),因?yàn)樗梢酝ㄟ^激活幾乎100%的神經(jīng)網(wǎng)絡(luò),來曝光算法中可能出現(xiàn)的無數(shù)個(gè)問題。
偏見檢測(cè)工具:在2018年 9 月,谷歌推出了新工具 What-If,這是 TensorBoard 中用于檢測(cè)偏見的工具。利用該工具,開發(fā)者可以通過交互式可視界面和反事實(shí)推理探究機(jī)器學(xué)習(xí)模型的特征重要性,找出誤分類原因、確定決策邊界,以及檢測(cè)算法公平性等。同樣,IBM也將其偏見檢測(cè)工具AI Fairness 360 工具包開源,其中包括超過 30 個(gè)公平性指標(biāo)和 9 個(gè)偏差緩解算法,研究人員和開發(fā)者可將工具整合至自己的機(jī)器學(xué)習(xí)模型里,檢測(cè)并減少可能產(chǎn)生的偏見和歧視。
技術(shù)本身被用于打擊偏見,是一種可操作性極強(qiáng)的方法,因?yàn)楣こ處焸兺瞄L于用技術(shù)解決實(shí)際問題。但是從目前的成果來看,大多技術(shù)突破還僅處于初級(jí)階段,停留在檢測(cè)偏見,消除偏見可能還待下一階段努力。
寫在最后:
現(xiàn)實(shí)社會(huì)中的偏見產(chǎn)生的原因盤根錯(cuò)節(jié),致力于消除偏見的運(yùn)動(dòng)綿延不息,也尚未徹底將其消滅。眼下,偏見化身為數(shù)字記憶,狡黠又隱蔽地藏身于每一次不經(jīng)意的雙擊,每一個(gè)微小的決策,卻能顯著影響人們被對(duì)待的方式。
更公正的數(shù)據(jù)集,更及時(shí)的誤差檢測(cè),更透明的算法過程……科技公司、科研機(jī)構(gòu)、監(jiān)管部門以及第三方組織的協(xié)同努力對(duì)算法偏見宣戰(zhàn)。這些舉措未必徹底消除偏見,但能極大避免技術(shù)無限放大社會(huì)固有的偏見。
相比將算法偏見全然怪罪于技術(shù),更重要的是意識(shí)到,技術(shù)作為一種工具,應(yīng)用應(yīng)有邊界,它滲入日常生活的深度、決策被采納的程度,需審慎決策。