當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 我們又能通過開源社區(qū)做些什么? 在我們的世界里,算法無處不在,偏見也是一樣。從社會(huì)媒體新聞的提供到流式媒體服務(wù)的推薦到線上購物,計(jì)算機(jī)算法,尤其是機(jī)器學(xué)習(xí)算法,已經(jīng)滲透到我們?nèi)粘I畹拿?

我們又能通過開源社區(qū)做些什么?

在我們的世界里,算法無處不在,偏見也是一樣。從社會(huì)媒體新聞的提供到流式媒體服務(wù)的推薦到線上購物,計(jì)算機(jī)算法,尤其是機(jī)器學(xué)習(xí)算法,已經(jīng)滲透到我們?nèi)粘I畹拿恳粋€(gè)角落。至于偏見,我們只需要參考 2016 年美國(guó)大選就可以知道,偏見是怎樣在明處與暗處影響著我們的社會(huì)。

很難想像,我們經(jīng)常忽略的一點(diǎn)是這二者的交集:計(jì)算機(jī)算法中存在的偏見。

與我們大多數(shù)人的認(rèn)知相反,科技并不是客觀的。 AI算法和它們的決策程序是由它們的研發(fā)者塑造的,他們寫入的代碼,使用的“訓(xùn)練”數(shù)據(jù)還有他們對(duì)算法進(jìn)行應(yīng)力測(cè)試 的過程,都會(huì)影響這些算法今后的選擇。這意味著研發(fā)者的價(jià)值觀、偏見和人類缺陷都會(huì)反映在軟件上。如果我只給實(shí)驗(yàn)室中的人臉識(shí)別算法提供白人的照片,當(dāng)遇到不是白人照片時(shí),它不會(huì)認(rèn)為照片中的是人類 。這結(jié)論并不意味著 AI 是“愚蠢的”或是“天真的”,它顯示的是訓(xùn)練數(shù)據(jù)的分布偏差:缺乏多種的臉部照片。這會(huì)引來非常嚴(yán)重的后果。

這樣的例子并不少。全美范圍內(nèi)的州法院系統(tǒng) 都使用“黑盒”對(duì)罪犯進(jìn)行宣判。由于訓(xùn)練數(shù)據(jù)的問題,這些算法對(duì)黑人有偏見 ,他們對(duì)黑人罪犯會(huì)選擇更長(zhǎng)的服刑期,因此監(jiān)獄中的種族差異會(huì)一直存在。而這些都發(fā)生在科技的客觀性偽裝下,這是“科學(xué)的”選擇。

美國(guó)聯(lián)邦政府使用機(jī)器學(xué)習(xí)算法來計(jì)算福利性支出和各類政府補(bǔ)貼。但這些算法中的信息,例如它們的創(chuàng)造者和訓(xùn)練信息,都很難找到。這增加了政府工作人員進(jìn)行不平等補(bǔ)助金分發(fā)操作的幾率。

算法偏見情況還不止這些。從 Facebook 的新聞算法到醫(yī)療系統(tǒng)再到警用攜帶相機(jī),我們作為社會(huì)的一部分極有可能對(duì)這些算法輸入各式各樣的偏見、性別歧視、仇外思想、社會(huì)經(jīng)濟(jì)地位歧視、確認(rèn)偏誤等等。這些被輸入了偏見的機(jī)器會(huì)大量生產(chǎn)分配,將種種社會(huì)偏見潛藏于科技客觀性的面紗之下。

這種狀況絕對(duì)不能再繼續(xù)下去了。

在我們對(duì)人工智能進(jìn)行不斷開發(fā)研究的同時(shí),需要降低它的開發(fā)速度,小心仔細(xì)地開發(fā)。算法偏見的危害已經(jīng)足夠大了。

我們能怎樣減少算法偏見?

最好的方式是從算法訓(xùn)練的數(shù)據(jù)開始審查,根據(jù)微軟的研究人員 所說,這方法很有效。

數(shù)據(jù)分布本身就帶有一定的偏見性。編程者手中的美國(guó)公民數(shù)據(jù)分布并不均衡,本地居民的數(shù)據(jù)多于移民者,富人的數(shù)據(jù)多于窮人,這是極有可能出現(xiàn)的情況。這種數(shù)據(jù)的不平均會(huì)使 AI 對(duì)我們是社會(huì)組成得出錯(cuò)誤的結(jié)論。例如機(jī)器學(xué)習(xí)算法僅僅通過統(tǒng)計(jì)分析,就得出“大多數(shù)美國(guó)人都是富有的白人”這個(gè)結(jié)論。

即使男性和女性的樣本在訓(xùn)練數(shù)據(jù)中等量分布,也可能出現(xiàn)偏見的結(jié)果。如果訓(xùn)練數(shù)據(jù)中所有男性的職業(yè)都是 CEO,而所有女性的職業(yè)都是秘書(即使現(xiàn)實(shí)中男性 CEO 的數(shù)量要多于女性),AI 也可能得出女性天生不適合做 CEO 的結(jié)論。

同樣的,大量研究表明,用于執(zhí)法部門的 AI 在檢測(cè)新聞中出現(xiàn)的罪犯照片時(shí),結(jié)果會(huì)驚人地偏向 黑人及拉丁美洲裔居民。

在訓(xùn)練數(shù)據(jù)中存在的偏見還有很多其他形式,不幸的是比這里提到的要多得多。但是訓(xùn)練數(shù)據(jù)只是審查方式的一種,通過“應(yīng)力測(cè)驗(yàn)”找出人類存在的偏見也同樣重要。

如果提供一張印度人的照片,我們自己的相機(jī)能夠識(shí)別嗎?在兩名同樣水平的應(yīng)聘者中,我們的AI是否會(huì)傾向于推薦住在市區(qū)的應(yīng)聘者呢?對(duì)于情報(bào)中本地白人恐怖分子和伊拉克籍恐怖分子,反恐算法會(huì)怎樣選擇呢?急診室的相機(jī)可以調(diào)出兒童的病歷嗎?

這些對(duì)于AI來說是十分復(fù)雜的數(shù)據(jù),但我們可以通過多項(xiàng)測(cè)試對(duì)它們進(jìn)行定義和傳達(dá)。

為什么開源很適合這項(xiàng)任務(wù)?

開源方法和開源技術(shù)都有著極大的潛力改變算法偏見。

現(xiàn)代人工智能已經(jīng)被開源軟件占領(lǐng),TensorFlow、IBM Watson 還有 scikit-learn 這類的程序包都是開源軟件。開源社區(qū)已經(jīng)證明它能夠開發(fā)出強(qiáng)健的,經(jīng)得住嚴(yán)酷測(cè)試的機(jī)器學(xué)習(xí)工具。同樣的,我相信,開源社區(qū)也能開發(fā)出消除偏見的測(cè)試程序,并將其應(yīng)用于這些軟件中。

調(diào)試工具如哥倫比亞大學(xué)和理海大學(xué)推出的 DeepXplore,增強(qiáng)了 AI 應(yīng)力測(cè)試的強(qiáng)度,同時(shí)提高了其操控性。還有 麻省理工學(xué)院的計(jì)算機(jī)科學(xué)和人工智能實(shí)驗(yàn)室完成的項(xiàng)目,它開發(fā)出敏捷快速的樣機(jī)研究軟件,這些應(yīng)該會(huì)被開源社區(qū)采納。

開源技術(shù)也已經(jīng)證明了其在審查和分類大組數(shù)據(jù)方面的能力。最明顯的體現(xiàn)在開源工具在數(shù)據(jù)分析市場(chǎng)的占有率上(Weka、Rapid Miner 等等)。應(yīng)當(dāng)由開源社區(qū)來設(shè)計(jì)識(shí)別數(shù)據(jù)偏見的工具,已經(jīng)在網(wǎng)上發(fā)布的大量訓(xùn)練數(shù)據(jù)組比如 Kaggle 也應(yīng)當(dāng)使用這種技術(shù)進(jìn)行識(shí)別篩選。

開源方法本身十分適合消除偏見程序的設(shè)計(jì)。內(nèi)部談話、私人軟件開發(fā)及非民主的決策制定引起了很多問題。開源社區(qū)能夠進(jìn)行軟件公開的談話,進(jìn)行大眾化,維持好與大眾的關(guān)系,這對(duì)于處理以上問題是十分重要的。如果線上社團(tuán),組織和院校能夠接受這些開源特質(zhì),那么由開源社區(qū)進(jìn)行消除算法偏見的機(jī)器設(shè)計(jì)也會(huì)順利很多。

我們?cè)鯓硬拍軌騾⑴c其中?

教育是一個(gè)很重要的環(huán)節(jié)。我們身邊有很多還沒意識(shí)到算法偏見的人,但算法偏見在立法、社會(huì)公正、政策及更多領(lǐng)域產(chǎn)生的影響與他們息息相關(guān)。讓這些人知道算法偏見是怎樣形成的和它們帶來的重要影響是很重要的,因?yàn)橄胍淖兡壳暗木置妫瑥奈覀冏陨碜銎鹗俏ㄒ坏姆椒ā?/p>

對(duì)于我們中間那些與人工智能一起工作的人來說,這種溝通尤其重要。不論是人工智能的研發(fā)者、警方或是科研人員,當(dāng)他們?yōu)榻窈笤O(shè)計(jì)人工智能時(shí),應(yīng)當(dāng)格外意識(shí)到現(xiàn)今這種偏見存在的危險(xiǎn)性,很明顯,想要消除人工智能中存在的偏見,就要從意識(shí)到偏見的存在開始。

最后,我們需要圍繞 AI 倫理化建立并加強(qiáng)開源社區(qū)。不論是需要建立應(yīng)力實(shí)驗(yàn)訓(xùn)練模型、軟件工具,或是從千兆字節(jié)的訓(xùn)練數(shù)據(jù)中篩選,現(xiàn)在已經(jīng)到了我們利用開源方法來應(yīng)對(duì)數(shù)字化時(shí)代最大的威脅的時(shí)間了。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉