(文章來源:教育新聞網(wǎng))
雖然大多數(shù)人每天都會遇到算法,但沒有多少人可以聲稱他們真的了解AI的實際工作原理。但是,Google推出了一種新工具,希望能夠幫助普通人掌握機器學(xué)習的復(fù)雜性。
該功能被稱為“可解釋的AI”,它有望按照其名稱描述的方式進行操作:向用戶解釋機器學(xué)習模型如何以及為何得出結(jié)論。為此,解釋工具將量化數(shù)據(jù)集中每個特征對算法結(jié)果的貢獻。每個數(shù)據(jù)因子都有一個分數(shù),反映了它對機器學(xué)習模型的影響程度。
用戶可以拉出該分數(shù),以了解給定算法為何做出特定決策。例如,在決定是否批準某人貸款的模型的情況下,可解釋AI將顯示帳戶余額和信用評分作為最決定性的數(shù)據(jù)。
谷歌云首席執(zhí)行官托馬斯·庫里安(Thomas Kurian)在倫敦的Google下次活動中介紹了該新功能,他說:“如果您使用AI進行信用評分,您希望能夠理解為什么該模型拒絕特定模型并接受另一個模型一。”他說:“可解釋的人工智能使您作為在企業(yè)業(yè)務(wù)流程中使用人工智能的客戶,能夠理解為什么人工智能基礎(chǔ)架構(gòu)能夠產(chǎn)生特定的結(jié)果?!?/p>
現(xiàn)在,該解釋工具可以用于托管在Google的AutoML表和Cloud AI Platform Prediction上的機器學(xué)習模型。
谷歌此前曾采取措施使算法更加透明。去年,它推出了假設(shè)工具,供開發(fā)人員在公司的AI平臺上工作時可視化和探查數(shù)據(jù)集。通過量化數(shù)據(jù)因素,可解釋的AI可以釋放更多的見解,并使這些見解對更多用戶可讀。Google Cloud戰(zhàn)略主管Tracy Frey說:“您可以將AI解釋與我們的假設(shè)分析工具配對,以全面了解模型的行為?!?/p>
在某些領(lǐng)域,例如醫(yī)療保健,提高AI的透明度將特別有用。例如,在使用算法來診斷某些疾病的算法中,它將使醫(yī)生可視化模型拾取的癥狀以做出決策,并驗證這些癥狀不是假陽性或其他疾病的征兆。
? ? ? ?