機(jī)器學(xué)習(xí)的決策滲透著偏見(jiàn),能把決策權(quán)完全交給機(jī)器嗎?
隨著人工智能的發(fā)展,人類將會(huì)把越來(lái)越多的決策權(quán)交給機(jī)器。但是,從目前的一些事例看,基于機(jī)器學(xué)習(xí)的決策并非那么公正完美,相反,那些決策也滲透著偏見(jiàn)。近期的一份研究報(bào)告中,Google的一名研究科學(xué)家MorTIz Hardt表示:“基于機(jī)器學(xué)習(xí)的決策是極為有用的,同時(shí),它又會(huì)深刻影響我們的生活……盡管如此,在如何避免機(jī)器學(xué)習(xí)可能產(chǎn)生的偏見(jiàn)方面,我們?nèi)匀蝗狈σ环N可靠的方法。”
本月,這份報(bào)告提交給了巴塞羅那舉辦的NIPS 大會(huì)(NIPS,神經(jīng)信息處理系統(tǒng))。與此同時(shí),其它人也提交了一些相關(guān)的論文。這證明此問(wèn)題正在受到更多人的重視。芝加哥豐田技術(shù)學(xué)院的計(jì)算機(jī)科學(xué)家 Nathan Srebro 是上述研究報(bào)告的作者之一。他向衛(wèi)報(bào)網(wǎng)站介紹了研究員們使用的測(cè)試方法。
Srebro 說(shuō),這項(xiàng)測(cè)試是針對(duì)機(jī)器學(xué)習(xí)系統(tǒng)的。通過(guò)分析大量的數(shù)據(jù),機(jī)器學(xué)習(xí)系統(tǒng)能夠?qū)ξ磥?lái)做出預(yù)測(cè)。問(wèn)題在于,計(jì)算機(jī)的決策規(guī)則并非實(shí)現(xiàn)事先編寫好的,而是計(jì)算機(jī)自己學(xué)會(huì)的,因此,決策背后的邏輯通常是不可知的。即使編寫算法的程序員也未必能夠搞清楚。
“算法是如此復(fù)雜,即使我們能夠進(jìn)入其內(nèi)部,搞懂其內(nèi)在原理也是幾乎不可能的,” Srebro 說(shuō),“機(jī)器學(xué)習(xí)的全部要點(diǎn)就是構(gòu)建魔法黑箱子。”
為此,Srebro 與同事們?cè)O(shè)計(jì)了一種測(cè)試方法。他們只檢測(cè)進(jìn)入算法的數(shù)據(jù)以及算法給出的決策。“我們的方法并不關(guān)注機(jī)器學(xué)習(xí)算法的內(nèi)部,” Srebro 說(shuō),“我們只關(guān)注它做出了什么決策。”
這個(gè)方法基于一個(gè)基本原則:當(dāng)算法做出與某人相關(guān)的決策時(shí),它只能揭示數(shù)據(jù)提供的內(nèi)容,而不能暴露個(gè)人的種族或者性別。例如,在償還銀行債務(wù)方面,男性拖欠債務(wù)的比例遠(yuǎn)遠(yuǎn)超過(guò)女性,那么,當(dāng)數(shù)據(jù)庫(kù)里的某人拖欠債務(wù),你可能會(huì)推論,那很可能是一個(gè)男人。但是,如果你推斷說(shuō),銀行的最佳策略是拒絕所有男性的貸款請(qǐng)求,那么,該決策就精確定位了個(gè)人的性別。“這可以視為不合理的歧視,” Srebro 說(shuō)。
針對(duì)這個(gè)方法,有人提出了質(zhì)疑。他們認(rèn)為,這等于是繞過(guò)了機(jī)器算法的決策過(guò)程,使其缺乏任何的透明性。西英格蘭的機(jī)器人道德學(xué)教授 Alan Winfield 說(shuō),“設(shè)想一下,如果某個(gè)案件涉及到機(jī)器算法的決策,法庭將需要專家證人解釋算法做出決策的理由。”
不過(guò),他也承認(rèn),如果要求機(jī)器決策的絕對(duì)透明度,那肯定會(huì)引起深度學(xué)習(xí)社群的強(qiáng)烈抗議。謝菲爾德大學(xué)機(jī)器人和人工智能學(xué)教授 Noel Sharkey 同意這種觀點(diǎn)。“如果你要找出輸油管道的最佳方案,機(jī)器學(xué)習(xí)是個(gè)很好的選擇,但是,在我們深入了解算法如何產(chǎn)生偏見(jiàn)之前,我會(huì)很在意它做出一些影響人們生活的決策。”