無論我們提供多少數(shù)據(jù),人工智能都無法預(yù)測未來
掃描二維碼
隨時隨地手機(jī)看文章
(文章來源:黑科技密探)
普林斯頓大學(xué)的3位社會科學(xué)家最近對160個研究小組進(jìn)行了一項大規(guī)模實驗,以查看他們中是否有一個能預(yù)測孩子的生活會如何。為參與者提供了15年的數(shù)據(jù),并允許他們使用他們想要的任何技術(shù),從老式的統(tǒng)計分析到現(xiàn)代人工智能。
實驗的最終結(jié)局是沒人能給出確切的結(jié)果,那是因為人工智能(AI)無法預(yù)測未來。當(dāng)然,它可以預(yù)測趨勢,并且在某些情況下可以提供有價值的見解,可以幫助行業(yè)做出最佳決策,但是確定孩子是否成功將需要蠻力數(shù)學(xué)無法提供的先知能力。
根據(jù)普林斯頓團(tuán)隊的研究論文:我們使用常見任務(wù)方法通過科學(xué)的大規(guī)模協(xié)作調(diào)查了這個問題;160個團(tuán)隊使用來自脆弱家庭和兒童幸福研究的數(shù)據(jù)建立了六種生命結(jié)局的預(yù)測模型,這是一項高質(zhì)量的出生隊列研究。盡管使用了豐富的數(shù)據(jù)集并應(yīng)用了針對預(yù)測進(jìn)行了優(yōu)化的機(jī)器學(xué)習(xí)方法,但最佳預(yù)測并不是非常準(zhǔn)確,僅比簡單基準(zhǔn)模型的預(yù)測好一點。
調(diào)查新聞媒體于2016年在美國法院系統(tǒng)上揭露了有關(guān)預(yù)測AI的陰險事實。通過一系列調(diào)查報告,它從經(jīng)驗上證明了美國法院使用的機(jī)器學(xué)習(xí)系統(tǒng)中的種族歧視是導(dǎo)致黑人被判處比白人更嚴(yán)厲的罪魁禍?zhǔn)椎脑?,而沒有任何方式可以證明或解釋原因。
這些系統(tǒng)通常存在于“黑匣子”中,這意味著原始開發(fā)人員和最終用戶都無法確定為什么機(jī)器最終會得出特定結(jié)論。AI可以告訴我們它的“預(yù)測”,但無法解釋原因。例如,當(dāng)我們處理銷售預(yù)測時,這些見解很有用。當(dāng)我們處理人類的生活和自由時,或者試圖弄清楚一個孩子是否會成功時,他們基本上只是猜測。從統(tǒng)計學(xué)上來說,不是很好。
麻省理工學(xué)院的研究員也涵蓋了這項研究。他們寫道,人工智能負(fù)責(zé)人和公平負(fù)責(zé)人合伙制合伙人項翔表示,統(tǒng)計數(shù)字僅略高于盲目運氣:對于研究在社會上使用AI的專家來說,結(jié)果并不令人驚訝。例如,即使是刑事司法系統(tǒng)中最準(zhǔn)確的風(fēng)險評估算法,最高也能達(dá)到60%或70%。她補(bǔ)充說:“也許摘要聽起來有些不錯?!钡珶o論如何,重新提出建議的比率都可能低于40%。這意味著預(yù)測沒有重新進(jìn)攻將使您的準(zhǔn)確率超過60%。
最后,盡管向研究團(tuán)隊提供了為期15年的“脆弱家庭”研究中收集的有關(guān)入學(xué)兒童生活的數(shù)據(jù),但沒人能給出準(zhǔn)確的預(yù)測結(jié)果。根據(jù)普林斯頓團(tuán)隊前面提到的研究論文:換句話說,即使脆弱家庭數(shù)據(jù)包含成千上萬的變量來幫助科學(xué)家了解這些家庭的生活,但參與者仍無法對扣留案例做出準(zhǔn)確的預(yù)測。此外,最好的提交通常使用復(fù)雜的機(jī)器學(xué)習(xí)方法并且可以訪問數(shù)千個預(yù)測變量,僅比使用線性回歸的簡單基準(zhǔn)模型的結(jié)果好一些。
這進(jìn)一步證實了預(yù)測性AI在直接影響人類生活時就顯得毫無意義。
? ? ?