人工智能或許沒有人們想象中的那么完美
近日,有人工智能領(lǐng)域的知名專家說(shuō),預(yù)測(cè)性的監(jiān)管工具不僅“毫無(wú)用處”,而且容易大大夸大暴力犯罪的可能性。在本月早些時(shí)候發(fā)表的一封信中,來(lái)自麻省理工學(xué)院、哈佛大學(xué)、普林斯頓大學(xué)、紐約大學(xué)、加州大學(xué)伯克利分校和哥倫比亞大學(xué)的專家們就這一問題發(fā)表了看法,他們對(duì)這項(xiàng)技術(shù)的懷疑態(tài)度達(dá)到了前所未有的程度。
人工智能專家切爾西巴拉巴斯(Chelsea Barabas)、卡蒂克迪納卡爾(Karthik Dinakar)和科林多伊爾(Colin Doyle)在《紐約時(shí)報(bào)》(New York Times)的一篇專欄文章中寫道:“在預(yù)測(cè)暴力時(shí),風(fēng)險(xiǎn)評(píng)估提供的是更神奇的思維,而不是有用的預(yù)測(cè)。”
預(yù)測(cè)性警務(wù)工具,或風(fēng)險(xiǎn)評(píng)估工具,是用來(lái)預(yù)測(cè)某人未來(lái)犯罪可能性的算法。根據(jù)美國(guó)國(guó)家司法研究所(NaTIonal InsTItute of JusTIce)的數(shù)據(jù),預(yù)測(cè)性警務(wù)是:“(利用)信息、地理空間技術(shù)和基于證據(jù)的干預(yù)模式的力量,以減少犯罪和改善公共安全。”
隨著人工智能的迅速發(fā)展,這些工具已經(jīng)開始進(jìn)入法官和警察部門的日常程序,法官利用它們來(lái)決定該如何判決,警察部門則利用它們來(lái)分配資源等等。它也被用來(lái)評(píng)估面臨審判的人再次犯罪的可能性,以及他們是否應(yīng)該被拘留。其中,法官最常用的工具之一被稱為公共安全評(píng)估(PSA),它和其他許多工具一樣,根據(jù)犯罪歷史和個(gè)人特征來(lái)計(jì)算。
根據(jù)計(jì)算結(jié)果,該工具可能會(huì)將一個(gè)人標(biāo)記為“新的暴力犯罪活動(dòng)”的候選者。盡管該技術(shù)被定位為先發(fā)制人打擊犯罪的一種方式,但專家表示,它的能力被大大夸大了。研究人員寫道,在預(yù)測(cè)未來(lái)的暴力事件時(shí),算法風(fēng)險(xiǎn)評(píng)估被吹捧為比法官更客觀、更準(zhǔn)確。
“從政治角度看,這些工具已經(jīng)成為保釋改革的寵兒。但他們的成功建立在這樣的希望之上:風(fēng)險(xiǎn)評(píng)估可以成為糾正法官錯(cuò)誤直覺的寶貴途徑?!睂<覀兎磳?duì)這種預(yù)測(cè)犯罪算法的理由之一是對(duì)其準(zhǔn)確性的疑慮。專家表示,這些工具往往高估了被指控者的暴力風(fēng)險(xiǎn),而事實(shí)上,審判期間犯罪的可能性很小。
據(jù)報(bào)道,華盛頓特區(qū)94%的犯罪嫌疑人被釋放,其中只有2%的人隨后因暴力犯罪被捕。然而研究人員指出,在各州,有30%等待審判的人被拘留的情況并不罕見,這種比例的懸殊顯然揭示了一個(gè)“過(guò)度監(jiān)禁”的問題。研究人員寫道,(這些工具)給法官提供的建議讓未來(lái)的暴力事件看起來(lái)比實(shí)際情況更可預(yù)測(cè)、更確定。但在這個(gè)過(guò)程中,使用這種AI風(fēng)險(xiǎn)評(píng)估工具可能會(huì)持續(xù)性地導(dǎo)致大規(guī)模監(jiān)禁情況的出現(xiàn),并讓人們產(chǎn)生誤解和恐懼。
專家們說(shuō):“如果這項(xiàng)技術(shù)真正準(zhǔn)確,它應(yīng)該能預(yù)測(cè)出幾乎所有人都處于零風(fēng)險(xiǎn)狀態(tài),因?yàn)榻y(tǒng)計(jì)上的可能性很低。相反,PSA犧牲了準(zhǔn)確性,只是為了在暴力可能性低、不確定或無(wú)法計(jì)算的人群中區(qū)分出有問題的人?!倍源饲疤岬降囊庠诒鎰e恐怖分子的TIA系統(tǒng)為例,假設(shè)這個(gè)預(yù)言系統(tǒng)的準(zhǔn)確性能達(dá)到99%,那么它理論上就能預(yù)言出恐怖分子群體中99%的未來(lái)罪犯,同時(shí)也會(huì)在無(wú)辜群眾中錯(cuò)誤將1%的人判定為未來(lái)恐怖分子。
假設(shè)在全美國(guó)3億人口中有1000人是真正的“未來(lái)恐怖分子”,而剩下的299999000人都是清白的,那么理論上會(huì)有2999990人被錯(cuò)誤地列入恐怖分子的行列。也就是說(shuō),這個(gè)系統(tǒng)將會(huì)逮捕將近300萬(wàn)無(wú)辜的人——幾乎是那些真正罪犯人數(shù)的3000倍。
人工智能究竟如何預(yù)測(cè)犯罪?其實(shí),其判斷依據(jù)跟人類警察也大致相同。富有多年工作經(jīng)驗(yàn)的警察們往往能總結(jié)出自己的一套辨別犯罪分子的依據(jù),而破案時(shí)警察們也經(jīng)常需要一些基本經(jīng)驗(yàn)判斷,如什么區(qū)域、時(shí)間容易犯罪率高發(fā),什么人物更有可能犯罪等。
這些歸納性的判斷有其意義,但對(duì)于某個(gè)特定個(gè)體而言,用類似分析去判定其“有罪”顯然對(duì)其不公平。此外,算法的設(shè)計(jì)者也可能在算法中無(wú)意加入了自己的偏見,而機(jī)器學(xué)習(xí)算法的黑盒子屬性讓其設(shè)計(jì)者也不能肯定其判定邏輯是什么。
1980年代,美國(guó)軍方使用機(jī)器學(xué)習(xí)算法訓(xùn)練機(jī)器分辨美蘇兩國(guó)的坦克,但后來(lái)卻發(fā)現(xiàn)計(jì)算機(jī)并未真正認(rèn)出兩國(guó)坦克的設(shè)計(jì)不同,而是把像素更高的圖片當(dāng)作“美國(guó)坦克”,因?yàn)橛?xùn)練使用的資料中俄羅斯坦克的照片更模糊?!靶录夹g(shù)有為善和作惡的潛在力量。如果你的假設(shè)沒有被仔細(xì)考證,那么機(jī)器學(xué)習(xí)技術(shù)只會(huì)帶來(lái)更多的不公平和加速現(xiàn)有的不平等。”普林斯頓大學(xué)法學(xué)系教授 Alexander T. Todorov 表示。
為了更好地預(yù)防犯罪,在近日對(duì)人工智能學(xué)家的采訪中,研究人員建議減少對(duì)算法的依賴,將資源投入到更全面的措施中。