人工智能工具正在影響生活和自由
警察部隊(duì)和法院使用新一代人工智能工具來確定要巡邏的社區(qū)、構(gòu)成重大威脅的個(gè)人,并幫助法官準(zhǔn)予保釋和宣判。
在過去的幾年里,人工智能、神經(jīng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的進(jìn)步幾乎觸及了人類生活的方方面面。許多行業(yè)、政府和研究機(jī)構(gòu)都加入了人工智能的行列,以提高性能、提供新的更好的服務(wù)以及設(shè)計(jì)新的產(chǎn)品和應(yīng)用。
在工業(yè)領(lǐng)域,人工智能和機(jī)器學(xué)習(xí)正在推動生產(chǎn)、產(chǎn)品開發(fā)、物流、維護(hù)和企業(yè)效率其他方面的新方法。
在醫(yī)療保健領(lǐng)域,人工智能和機(jī)器學(xué)習(xí)正在幫助診斷、發(fā)現(xiàn)藥物與不同條件之間的關(guān)系,并加快新藥開發(fā)。沒有它,我們可能仍在等待 Covid-19 疫苗。
雖然上述改進(jìn)主要是積極的,但在其他社會方面使用人工智能會產(chǎn)生許多無法預(yù)料的后果。例如,人工智能目前用于篩選工作申請,確定誰應(yīng)該和誰不應(yīng)該接受面試;金融機(jī)構(gòu)越來越多地使用機(jī)器學(xué)習(xí)來提供算法來評估信用度,保險(xiǎn)公司使用人工智能來調(diào)整保費(fèi)。
雖然這些方法可以提高性能和更好的投資回報(bào),但相同的算法直接影響數(shù)百萬人的生活,人工智能將其視為數(shù)據(jù)庫中的數(shù)字和個(gè)人資料。
監(jiān)視和執(zhí)法
不幸的是,這種使用人工智能影響人類生活的趨勢并不止于此。近年來,執(zhí)法部門和法院正在使用人工智能和機(jī)器學(xué)習(xí)來確定如何在不同地區(qū)分配警察部隊(duì)、哪些人更有可能犯罪、誰應(yīng)該被拘留或保釋,以及刑罰的輕重。
許多警察部隊(duì)和其他政府機(jī)構(gòu)一直樂于使用新技術(shù)來加強(qiáng)監(jiān)視、改善警務(wù)并幫助調(diào)查。諸如假蜂窩發(fā)射器、無人機(jī)、面部識別、GPS 位置跟蹤器等技術(shù)在全球數(shù)千家機(jī)構(gòu)的武器庫中。
除此之外,許多城市還為警察單位提供基于人工智能的系統(tǒng)來預(yù)測犯罪活動。這些算法旨在持續(xù)監(jiān)控?cái)?shù)據(jù)庫,并將熱點(diǎn)標(biāo)簽分配給大多數(shù)犯罪報(bào)告和逮捕發(fā)生的地方。
預(yù)測性警務(wù)技術(shù)使用歷史和實(shí)時(shí)數(shù)據(jù)來預(yù)測犯罪最有可能發(fā)生的時(shí)間和地點(diǎn),或者誰最有可能參與或成為犯罪活動的受害者。
問題在于,用于增加/減少某些地區(qū)警察存在的算法是自我實(shí)現(xiàn)的:更多的警察存在轉(zhuǎn)化為更多的逮捕,算法將其解釋為同一地點(diǎn)的更多麻煩。相反,在其他地方,尤其是在逮捕事件較少的高收入地區(qū),算法會確定那些是安全社區(qū)。
人工智能工具越來越多地被用作風(fēng)險(xiǎn)評估的一種手段,盡管它缺乏透明度和公平性,但它也無濟(jì)于事。算法設(shè)計(jì)缺乏透明度使得幾乎不可能檢測到可能嵌入偏見的問題。
“在美國,黑人比白人更有可能因犯罪被捕,即使他們的犯罪率相似?!?人工智能研究員 Janelle Shane 在她的暢銷書“你看起來像一件事,我愛你”中說。她補(bǔ)充說:“機(jī)器學(xué)習(xí)算法不僅會從他們的訓(xùn)練數(shù)據(jù)中獲取偏見,而且它們往往比他們的訓(xùn)練數(shù)據(jù)更有偏見。從他們的角度來看,他們只是發(fā)現(xiàn)了一個(gè)有用的捷徑規(guī)則,可以幫助他們更頻繁地匹配訓(xùn)練數(shù)據(jù)中的人類。[...] 他們不知道模仿偏見是錯(cuò)誤的。他們只知道這是一種幫助他們實(shí)現(xiàn)目標(biāo)的模式。由程序員來提供道德和常識?!?
法官、陪審團(tuán)和劊子手
雖然使用人工智能來幫助優(yōu)化執(zhí)法資源和他們應(yīng)該更多地監(jiān)管的社區(qū),但近年來出現(xiàn)了一種更麻煩的算法使用:刑事法庭法官使用人工智能和機(jī)器學(xué)習(xí)進(jìn)行量刑。前聯(lián)邦法官 Katherine B. Forrest 認(rèn)為,當(dāng)前用于自由決策的人工智能工具是基于“功利主義”的正義框架和不符合美國憲法和獨(dú)立宣言中體現(xiàn)的個(gè)人公平。
“人工智能工具正被積極用于做出影響任何人擁有的最神圣的個(gè)人權(quán)利的決定:生命和自由。影響生命和自由的決定必須基于道德和正義的公平和保護(hù)個(gè)人憲法權(quán)利的框架?!? 福雷斯特說,并得出結(jié)論。