亞馬遜與科學(xué)基金會(huì)合作,專注于開發(fā)AI和機(jī)器學(xué)習(xí)公平性的系統(tǒng)
導(dǎo)語(yǔ):亞馬遜與國(guó)家科學(xué)基金會(huì)合作,投資千萬(wàn)美金開發(fā)AI公平性系統(tǒng),實(shí)現(xiàn)人工智能系統(tǒng)更廣泛的接受度。
智東西3月26日消息,亞馬遜昨日宣布將與美國(guó)國(guó)家科學(xué)基金會(huì)(NSF)合作,在未來三年內(nèi)投入1000萬(wàn)美元的研究經(jīng)費(fèi),開發(fā)專注于人工智能和機(jī)器學(xué)習(xí)公平性的系統(tǒng)。
亞馬遜Alexa AI 團(tuán)隊(duì)的自然理解副總裁 Prem Natarajan 表示,人工智能的普及使其公平性問題在學(xué)術(shù)界、政府部門和企業(yè)界都變得越來越重要,公平性問題對(duì)于建立和維護(hù)客戶的信任也是至關(guān)重要的。
為實(shí)現(xiàn)人工智能系統(tǒng)更廣泛的接受度,亞馬遜與NSF的合作將針對(duì)人工智能的可解釋性、潛在的不利偏見和影響、緩解策略、公平性驗(yàn)證以及包容性考慮。美國(guó)將繼續(xù)發(fā)揮人工智能技術(shù)的潛力,希望到5月10日他們接受的人工智能公平性驗(yàn)證提案能夠帶來新的開放源碼工具、公開可用的數(shù)據(jù)集和出版物。
亞馬遜將為該計(jì)劃提供部分資金,NSF根據(jù)其績(jī)效評(píng)估流程獨(dú)立地做出獎(jiǎng)勵(lì)決定。 該計(jì)劃預(yù)計(jì)將在2020年和2021年繼續(xù)進(jìn)行,并附加征集意向書。
美國(guó)國(guó)家科學(xué)基金會(huì)計(jì)算機(jī)和信息科學(xué)與工程負(fù)責(zé)人Jim Kurose表示,與亞馬遜合作進(jìn)行人工智能公平性研究將支持有關(guān)開發(fā)和實(shí)施可靠的人工智能系統(tǒng)的研究,這些系統(tǒng)從一開始就將透明度、公平性和問責(zé)制融入設(shè)計(jì)中。
亞馬遜與國(guó)家科學(xué)基金會(huì)合作的消息發(fā)布后,越來越多的企業(yè)、學(xué)術(shù)機(jī)構(gòu)和行業(yè)協(xié)會(huì)開始加入,進(jìn)行人工智能道德研究。他們的共同工作已經(jīng)產(chǎn)生了算法偏差緩解工具,這些工具有望加速向更公正的模型邁進(jìn)。
去年5月,F(xiàn)acebook 發(fā)布了公平流程,如果算法根據(jù)種族、性別或年齡對(duì)某人做出不公平的判斷,它會(huì)自動(dòng)發(fā)出警告。埃森哲咨詢公司發(fā)布了可以自動(dòng)檢測(cè)AI算法偏差的工具包,為數(shù)據(jù)科學(xué)家減輕算法偏差提供幫助。微軟也在去年5月推出了自己的解決方案,同年9月谷歌推出了 What-If 工具,這是 TensorBoard 網(wǎng)絡(luò)儀表板上的一個(gè)偏見檢測(cè)功能,用于 TensorFlow 機(jī)器學(xué)習(xí)框架的網(wǎng)絡(luò)儀表板的偏置檢測(cè)功能。
IBM也在去年秋天發(fā)布了AI Fairness ,這是一款基于云計(jì)算的全產(chǎn)品,可以幫助了解AI系統(tǒng)如何做出決策并給出調(diào)整建議——例如算法調(diào)整或平衡數(shù)據(jù)。最近IBM的Watson和Cloud Platforms小組的研究重點(diǎn)是減輕AI模型中的偏差,特別是在面部識(shí)別方面。
麻省理工學(xué)院的研究人員發(fā)現(xiàn) Rekognition ——亞馬遜網(wǎng)絡(luò)服務(wù)(AWS)的目標(biāo)檢測(cè) API——無(wú)法可靠地確定特定情況下女性和深膚色面孔的性別。在2018年進(jìn)行的實(shí)驗(yàn)中,RekogniTIon 的面部分析功能錯(cuò)誤地將女性的照片識(shí)別為男性,將深色皮膚的女性的照片識(shí)別為男性的比例分別為19% 和31% 。
亞馬遜對(duì)研究結(jié)果提出異議,對(duì)于實(shí)驗(yàn)結(jié)果是否準(zhǔn)確仍存在爭(zhēng)議。亞馬遜表示在RekogniTIon更新版本的測(cè)試中,所有種族的性別分類準(zhǔn)確性“無(wú)差異”,并提出研究結(jié)果的論文沒有清楚地說明實(shí)驗(yàn)中使用的置信閾值。