當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 2018年5月25日,“通用數(shù)據(jù)保護(hù)條例”(GDPR)在整個歐盟范圍內(nèi)生效,要求對組織如何處理個人數(shù)據(jù)進(jìn)行徹底改變。若違反GDPR條例的限制,相關(guān)組織必須支付高達(dá)2000

2018年5月25日,“通用數(shù)據(jù)保護(hù)條例”(GDPR)在整個歐盟范圍內(nèi)生效,要求對組織如何處理個人數(shù)據(jù)進(jìn)行徹底改變。若違反GDPR條例的限制,相關(guān)組織必須支付高達(dá)2000萬歐元或其全球收入4%的罰款(以較高者為準(zhǔn)),對威懾大多數(shù)違規(guī)行為具有很重要的意義。

由于不久前的劍橋分析丑聞鬧得人心惶惶,許多人希望GDPR將成為全球數(shù)據(jù)隱私新標(biāo)準(zhǔn)的典范。目前一些行業(yè)領(lǐng)導(dǎo)者正在呼吁Facebook將GDPR標(biāo)準(zhǔn)應(yīng)用于其在非歐盟國家的業(yè)務(wù)。

但隱私只是圍關(guān)于數(shù)據(jù)驅(qū)動系統(tǒng)之爭的一個方面,實(shí)際上機(jī)器學(xué)習(xí)支持系統(tǒng)的日益普及引發(fā)了一系列相關(guān)問題,包括一個對社會產(chǎn)生很大影響且無法量化的問題:偏見。

在我們的生活中,許多重要決策都是由某種系統(tǒng)做出的,很多系統(tǒng)都存在明顯的偏見,無論這系統(tǒng)是人、機(jī)器還是二者的組合。機(jī)器學(xué)習(xí)在決策制度中的作用越來越大,這為我們提供了一個建立更少偏見的系統(tǒng)的機(jī)會,當(dāng)然也面臨著加劇這一問題的風(fēng)險。

我們通常認(rèn)為計算機(jī)比人類更客觀、更公正。然而過去的幾年里,許多機(jī)器學(xué)習(xí)系統(tǒng)產(chǎn)生了帶有偏見或歧視的結(jié)果,人們對此也有著很多爭議。2016年時ProPublica曾報道,美國法院用來衡量被告再次犯罪可能性的機(jī)器學(xué)習(xí)算法,在對比背景相似的黑人與白人被告時會認(rèn)為黑人的“風(fēng)險更高”,即使系統(tǒng)沒有提供有關(guān)被告種族的任何數(shù)據(jù)也依然如此。

不久前一篇名為《關(guān)于模型可解釋性的深入思考:從哪里來,到哪里去?》的文章中,曾詳細(xì)介紹了學(xué)習(xí)出一個通用智能行動者的潛力和局限性,算法公平方面細(xì)微的以及可以被真正規(guī)范化的挑戰(zhàn)。人們使用機(jī)器學(xué)習(xí)系統(tǒng)的目的是希望世界更公平、更有效率,而不是進(jìn)一步放大人類的偏見。

這就是為什么GDPR允許用戶可以要求解釋機(jī)器任何“合法或類似重要”的決策,希望解釋的權(quán)利能夠使“算法歧視”的受害者訴諸人權(quán),從而減輕這種偏見的影響。

但是生成這些類型的解釋——即創(chuàng)造可解釋的人工智能——是非常復(fù)雜的,而且即便系統(tǒng)對決策做出了解釋,也有一些評論家認(rèn)為“無法分辨它們是真的反對偏見,還是僅僅是掩飾偏見。”

可解釋的人工智能以及GDPR是否會使技術(shù)更公平?如果不是,隨著機(jī)器學(xué)習(xí)的使用變得更加普遍,我們還有什么替代方法可以防范偏見?

機(jī)器學(xué)習(xí)中的偏見

關(guān)于偏見的討論常常被過分簡化為諸如“種族主義算法”這樣的詞語,但其實(shí)問題不在于算法本身,而是數(shù)據(jù)研究團(tuán)隊(duì)提供給機(jī)器的數(shù)據(jù)。

例如,收集以往的數(shù)據(jù)是數(shù)據(jù)科學(xué)項(xiàng)目的一個共同起點(diǎn),但“歷史數(shù)據(jù)往往偏向于我們不希望轉(zhuǎn)移到未來的方式,”加州大學(xué)伯克利分校電子工程與計算機(jī)科學(xué)學(xué)院助理教授、加州大學(xué)伯克利分校崛起實(shí)驗(yàn)室的創(chuàng)始人之一Joey Gonzalez說。

假設(shè)某公司建立了一個篩選求職者的機(jī)器學(xué)習(xí)模型,并基于公司過去篩選類似職位求職者的數(shù)據(jù)集對模型進(jìn)行培訓(xùn)。如果該公司的HR曾多次拒絕過那些試圖重返職場的前全職父母,則培訓(xùn)的結(jié)果很有可能會讓模型也將這些存在長期就業(yè)缺口的人排除在外。

如果更進(jìn)一步,這將導(dǎo)致模型過多的拒絕女性求職者(全職父母多為女性)從而造成性別比例失調(diào),即使性別并不是模型培訓(xùn)數(shù)據(jù)集中的特征。因此在這一領(lǐng)域中,使用機(jī)器學(xué)習(xí)將進(jìn)一步放大人類的偏見。

而這就是可解釋的人工智能的用武之地。如果操作人員能夠檢查“推理”算法,就有可能在算法產(chǎn)生嚴(yán)重偏差之前進(jìn)行糾正。

讓機(jī)器解釋自己

由于機(jī)器學(xué)習(xí)系統(tǒng)的行為由它學(xué)到的數(shù)據(jù)所驅(qū)動,所以它的工作方式與人們編寫的標(biāo)準(zhǔn)計算機(jī)程序有很大不同。人們可以測量一個機(jī)器學(xué)習(xí)系統(tǒng)的準(zhǔn)確性,但是對于這種系統(tǒng)實(shí)際做出決策的可見性是有限的。

(和人腦類似,人腦的思考是由特定區(qū)域內(nèi)神經(jīng)元的復(fù)雜放電而產(chǎn)生,但人們并不確切知道具體怎樣的神經(jīng)元活動會得出怎樣的思考。所以當(dāng)人們想驗(yàn)證決策正確性時并不會去掃描大腦,而是通過相關(guān)數(shù)據(jù)以及過往的經(jīng)驗(yàn)判斷。)

可解釋的人工智能要求機(jī)器學(xué)習(xí)算法可以自己證明決策的正確性。華盛頓大學(xué)的研究人員在2016年構(gòu)建了一種稱為LIME的解釋技術(shù),并在由Google構(gòu)建的圖像分類神經(jīng)網(wǎng)絡(luò)IncepTIon Network上進(jìn)行了測試。

LIME在做出圖像分類決策時,不會考慮觸發(fā)神經(jīng)網(wǎng)絡(luò)中的哪個神經(jīng)元,而是在圖像本身中搜索解釋。它會將原始圖像的不同部分變黑,并通過IncepTIon將產(chǎn)生的“擾動”圖像反饋回來,以檢查哪些擾動將算法拋離最遠(yuǎn)。

通過這種方法,LIME可以將初始網(wǎng)絡(luò)分類決策歸因于原始圖片的特定特征。例如對于青蛙的圖像,LIME發(fā)現(xiàn)抹除部分臉部會讓初始網(wǎng)絡(luò)很難識別圖像,這表明最初的分類決策大多是基于青蛙的臉。

雖然像LIME這樣的特征歸屬方法并不能完全解釋算法的決策,并且在各種類型的機(jī)器學(xué)習(xí)模型上都不能工作的很好,但至少在圖像分類方面,它朝著正確方向邁出了一步。

據(jù)了解,美國的人臉識別系統(tǒng)對黑人的面部識別遠(yuǎn)不如對白人那般精確(訓(xùn)練算法時用的圖像多為白人),這增加了黑人被監(jiān)控攝像誤認(rèn)導(dǎo)致被逮捕的可能性,嚴(yán)重者甚至?xí)a(chǎn)生誤判。更好的解釋這些算法決策并加以監(jiān)督,顯然將有助于避免此類不良結(jié)果。

人們還需要做什么

雖然可解釋的人工智能和神經(jīng)網(wǎng)絡(luò)的特征歸因很有發(fā)展前景,但消除人工智能的偏見最終會歸結(jié)為一件事:數(shù)據(jù)。

如果算法的訓(xùn)練數(shù)據(jù)不能公平的覆蓋開發(fā)者想要服務(wù)的人群,系統(tǒng)就很有可能出現(xiàn)偏差。如果訓(xùn)練數(shù)據(jù)隱含了歷史上的不公平現(xiàn)象,該算法就會學(xué)習(xí)進(jìn)而延續(xù)甚至放大這些問題。

雖然GDPR和類似的法規(guī)對組織如何使用數(shù)據(jù)進(jìn)行了一些控制,但它們也無法阻止這些組織使用已經(jīng)存在偏見的數(shù)據(jù)集。

算法的發(fā)展當(dāng)然對克服偏見有所幫助,但歸根結(jié)底責(zé)任并不在數(shù)學(xué)結(jié)構(gòu)、軟件或硬件,而是在于這些決策系統(tǒng)的設(shè)計者和操作者,人們有責(zé)任明智而公平地收集,存儲和使用這些數(shù)據(jù)。

從某種意義上說,減少機(jī)器學(xué)習(xí)算法中的偏見不僅需要人工智能的進(jìn)步,還需要我們對人類多樣性理解的進(jìn)步。

為了開發(fā)公平和負(fù)責(zé)任的人工智能,技術(shù)人員需要社會學(xué)家,心理學(xué)家,人類學(xué)家和其他專家的幫助,他們能夠洞察偏見對人類生活的影響,并告訴人們?nèi)绾伪苊庾屍娪绊憴C(jī)器學(xué)習(xí)系統(tǒng)。

技術(shù)本身并不能解決社會問題,但是通過不同學(xué)科間的合作,研究者和開發(fā)者可以創(chuàng)建有利于更公平社會的機(jī)器學(xué)習(xí)技術(shù)。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉