亞馬遜將聯(lián)合美國國家科學(xué)基金會為AI公平性研究撥款1000萬美元
3月26日消息,據(jù)美國科技媒體VentureBeat報道,亞馬遜希望將系統(tǒng)偏見最小化,并解決人工智能(AI)的透明度和問責(zé)制問題。為此,這家位于西雅圖的公司于當(dāng)?shù)貢r間周一宣布,它將與美國國家科學(xué)基金會(National Science Foundation,簡稱NSF)合作,在未來三年內(nèi)至多投入1000萬美元的研究資金,用于開發(fā)專注于人工智能(AI)和機器學(xué)習(xí)公平性的系統(tǒng)。
亞馬遜將為該項目提供部分資金,美國國家科學(xué)基金會將根據(jù)其績效審查程序獨立做出獎勵決定。該項目預(yù)計將在2020年和2021年繼續(xù)推出其他的呼吁內(nèi)容。
亞馬遜與美國國家科學(xué)基金會(NSF)的合作,將特別針對可解釋性、潛在的不利偏見和影響、緩解策略、公平性驗證和包容性考慮等,目標是使人工智能系統(tǒng)能夠“得到更廣泛的接受”,并使美國能夠“進一步利用”人工智能技術(shù)的潛力。
從當(dāng)?shù)貢r間周一(3月25日)直至5月10日,這兩個組織希望獲得相關(guān)建議,這些建議將能產(chǎn)生新的開源工具、公開可用的數(shù)據(jù)集和出版物。
亞馬遜Alexa AI部門負責(zé)自然理解的副總裁普瑞姆·納塔拉詹(Prem Natarajan)在一篇博客中寫道:“隨著人工智能(AI)在日常生活中的應(yīng)用越來越多,人工智能的公平性在學(xué)術(shù)界、政府和行業(yè)中成為一個越來越重要的話題。在亞馬遜,我們?yōu)橹С謽I(yè)務(wù)而構(gòu)建的機器學(xué)習(xí)系統(tǒng)的公平性,對于建立和維護客戶的信任至關(guān)重要。”
美國國家科學(xué)基金會(NSF)計算機與信息科學(xué)工程主管吉姆?庫羅斯(Jim Kurose)表示:“我們很高興宣布與亞馬遜的這項新合作,為專注于人工智能公平性的研究提供資金。這個項目將支持與開發(fā)和實現(xiàn)可信的人工智能系統(tǒng)相關(guān)的研究,這些系統(tǒng)從一開始就將透明度、公平性和問責(zé)制融入到設(shè)計中。”
通過與美國國家科學(xué)基金會的合作,亞馬遜加入了越來越多的公司、學(xué)術(shù)機構(gòu)和行業(yè)聯(lián)盟中,從事倫理人工智能(AI)的研究。他們的共同努力已經(jīng)產(chǎn)生了算法上的偏見緩解工具,有望加速向更公正的模式邁進。
亞馬遜并不是唯一一個致力于減少算法偏見的平臺。在去年5月舉行的F8開發(fā)者大會上,F(xiàn)acebook宣布了Fairness Flow,這是一項針對數(shù)據(jù)科學(xué)家的自動化偏向捕獲服務(wù)。
埃森哲也發(fā)布了類似的工具,該工具可以自動檢測人工智能算法中的偏差,并幫助數(shù)據(jù)科學(xué)家減輕這種偏差。
去年9月,谷歌發(fā)布What-If工具,這是開源TensorBoard Web應(yīng)用程序的一項新功能,它允許用戶在不編寫代碼的情況下分析ML模型。
IBM也不甘落后,該公司去年秋天發(fā)布了AI Fairness 360開源工具包,這是一個基于云計算的全自動套件,旨在消除人工智能中的偏見。
IBM沃森和云平臺團隊最近的研究重點是,減輕人工智能模式中的偏見,尤其是在人臉識別方面。