Google新型人工智能透明度工具的優(yōu)缺點(diǎn)
(文章來源:教育新聞網(wǎng))
在此特別的來賓功能中,Zest AI的CTO Jay Budzik討論了Google推出的開發(fā)人員工具集,這些工具可讓數(shù)據(jù)科學(xué)家創(chuàng)建可解釋的ML模型,以及這些新工具的現(xiàn)實(shí)性以及它們?nèi)绾斡绊懾?cái)務(wù)服務(wù)市場(chǎng)。Zest AI是一家軟件公司,可幫助銀行和貸方建立,運(yùn)行和監(jiān)視完全可解釋的機(jī)器學(xué)習(xí)承銷模型。作為首席技術(shù)官,Jay負(fù)責(zé)Zest的產(chǎn)品和工程團(tuán)隊(duì)。他對(duì)發(fā)明新技術(shù)(尤其是在數(shù)據(jù)挖掘和AI中)的熱情在他的整個(gè)職業(yè)生涯中發(fā)揮了核心作用。周杰倫擁有博士學(xué)位西北大學(xué)計(jì)算機(jī)科學(xué)專業(yè)。
算法模型因?yàn)槿菀资艿讲还狡姷暮谙蛔佣艿讲缓玫恼f唱。如果您有正確的工具來解釋他們的決定,他們就不是。
這就是為什么Google的新的基于云的可解釋AI(XAI)工具套件為希望采用AI的公司朝正確方向邁出了一步。這些工具可以解密和捍衛(wèi)特定數(shù)據(jù)因素如何促進(jìn)在復(fù)雜神經(jīng)網(wǎng)絡(luò)之上構(gòu)建的機(jī)器學(xué)習(xí)(ML)模型的輸出。雖然Google XAI應(yīng)該引起人們的關(guān)注并幫助消除一些ML神話,但它可能不會(huì)刺激所有公司的采用,特別是需要完全可解釋的承銷模式來決定誰可以借款,誰不能借款的金融服務(wù)公司。
首先,Google的工具(目前處于測(cè)試版)要求客戶在Google Cloud中構(gòu)建和實(shí)施其模型。但是大多數(shù)公司都需要可在任何云環(huán)境或本地服務(wù)器上使用的可解釋性工具。
其次,Google XAI不夠靈活,無法容納更強(qiáng)大的模型。像其他可解釋性工具一樣,Google植根于復(fù)雜的數(shù)學(xué)原理,包括Aumann-Shapley方法的一種版本,該方法使用一系列箔紙(稱為“反事實(shí)”)來完善算法的輸出。谷歌云AI部門負(fù)責(zé)人安德魯·摩爾(Andrew Moore)上個(gè)月在倫敦的英國(guó)廣播公司(BBC)上描述了這一過程:“例如,神經(jīng)網(wǎng)絡(luò)問自己,'我當(dāng)時(shí)無法看待走進(jìn)來的人的襯衫顏色商店。那會(huì)改變我對(duì)他們走路速度有多快的估計(jì)嗎?”通過進(jìn)行許多反事實(shí),它逐漸建立了一張關(guān)于它是什么以及在進(jìn)行預(yù)測(cè)時(shí)沒有注意的圖片。”
盡管聽起來很引人注目,但Google XAI不適用于所謂的集成模型,該模型使用多種或競(jìng)爭(zhēng)性技術(shù)將多個(gè)模型編織在一起?!皡R總”提高了AI信用評(píng)分的預(yù)測(cè)能力-假設(shè)可以檢查集體系統(tǒng)以評(píng)估決策的制定方式-并且在接下來的幾年中,隨著貸方接受ML,它將成為標(biāo)準(zhǔn)。目前,Google對(duì)基于樹的模型以及樹和神經(jīng)網(wǎng)絡(luò)的集成提供了有限的支持。
第三,雖然Google AI“假設(shè)分析”工具非常聰明,并且可以讓建模人員一目了然地測(cè)試不同的場(chǎng)景,但Google的用戶界面可能很難使用。開發(fā)人員將必須學(xué)習(xí)特定的編碼語言和配置約定以訪問可解釋性功能。
最后,Google的可解釋性軟件包主要針對(duì)數(shù)據(jù)科學(xué)家,而不是為受嚴(yán)格監(jiān)管的金融服務(wù)公司工作的信用分析師。從理論上講,銀行的數(shù)據(jù)科學(xué)家可以使用Google的工具建立模型。但是這些人將需要構(gòu)建其他工具來測(cè)試其模型的準(zhǔn)確性和公平性,并生成監(jiān)管機(jī)構(gòu)要求的所有合規(guī)報(bào)告。
? ? ?