近日,IBM、亞馬遜和微軟相繼發(fā)表聲明,宣布不再向警方提供人臉識別技術(shù)。對包括人臉識別在內(nèi)的AI侵犯隱私的聲討由來已久,但它并不是這些技術(shù)公司此次表態(tài)的直接原因。
5月25日,非裔美國人喬治·弗洛伊德(George Floyd)在明尼蘇達州涉嫌使用假鈔被捕,并被警察以壓頸執(zhí)法致死。事件引發(fā)美國社會以“BLM(Black Lives Matter,黑人的命也是命)”為口號的反種族歧視運動。
美國民眾抗議警察暴力執(zhí)法。| 圖片來源:視覺中國 在美國,IBM、亞馬遜、微軟等公司都曾不同程度地向美國執(zhí)法機構(gòu)交付過人臉識別工具。通過這類工具,警察可以在街頭巡邏時快速比對他們手機攝像頭中的圖片,還能將其與警察數(shù)據(jù)庫中的數(shù)十萬張照片做匹配。這種人臉識別工具強化了警察的能力,也自帶偏見。
在科技公司站出來之前,以價值觀著稱的Nike、星巴克等消費品公司都已發(fā)聲,Nike在一支廣告片中將其品牌口號“Just do it”臨時性地改成了“Don’t do it”;星巴克也從6月12日起允許員工穿戴BLM相關(guān)的服飾,并發(fā)放了25萬件相關(guān)配飾給員工。
為什么是IBM開了這個頭?
在寫給國會議員的那封信中,CEO克里什納的具體表述為,IBM將不再提供基于通用目的的人臉識別技術(shù)和分析軟件。
這一表述被認為模棱兩可,比如位于倫敦的名為國際隱私(Privacy International)的NGO在接受BBC采訪時,對其的一種解讀就是:那么是否還可以繼續(xù)提供基于定制的人臉識別技術(shù)和分析軟件?
IBM在該領域的行業(yè)地位是外界質(zhì)疑其出發(fā)點的主要原因——在人臉識別領域,IBM的市場份額其實很小。
準確說,包括人臉識別在內(nèi)的人工智能技術(shù)本身并不是獨立的產(chǎn)品,只是一種底層技術(shù)——其前端需要諸如智能攝像頭、智能手機、智慧門鈴等終端設備,后端需要云計算設施存儲和處理數(shù)據(jù)。
在美國,擁有這項技術(shù)的技術(shù)公司比如亞馬遜、微軟等之所以出售這項技術(shù),主要是為了銷售它們的終端產(chǎn)品和輔助的云計算服務,而IBM在這兩個場景中的市場份額都很小。IBM 的人臉識別主打產(chǎn)品Watson visual detection的主要使用場景為安防領域,主要客戶則是政府安保部門或其他安防機構(gòu)。
根據(jù)市場研究機構(gòu)Gartner的數(shù)據(jù),2019年,全球云計算市場中份額最高的公司是亞馬遜(45%),其次是微軟(17.9%)和阿里云(9.1%),Google擁有5.3%的份額,剩余23.7%的份額由“其他”數(shù)家公司共享——IBM屬于“其他”這部分。
IBM在這一領域其實失意已久,盡管它原本算得上人工智能時代的領頭羊。早在2008年,時任CEO彭明盛就提出了“智慧地球”這一概念,并建議當時的奧巴馬政府投資新一代的智慧型基礎設施。這個概念成為后來“智慧城市”的雛形,其標配就是智能攝像頭、傳感器、圖像識別以及人臉識別。
而在更早的1997 年,IBM的人工智能程序“深藍”就戰(zhàn)勝了國際象棋冠軍卡斯帕洛夫。
但IBM一直缺乏為這些技術(shù)尋找落地場景、將它們進一步商業(yè)化的能力。
與其對照,亞馬遜通過不斷在新拓展的場景中應用新技術(shù),拿到了從云計算到人工智能的實際市場份額。就人工智能而言,這個零售商除了可以直接向警察銷售的人臉識別軟件Rekognition,還有面向普通消費者的智慧門鈴Ring、智能音箱Echo等。
被回避的問題:
AI濫用及其對隱私的侵犯
IBM在信中呼吁對用于執(zhí)法的人工智能系統(tǒng)做“偏見測試(bias test)”。不過,尚沒有證據(jù)表明5月25日當天警察之所以執(zhí)法過當,跟George Floyd曾有的犯罪記錄或者警察是否使用了相應的AI工具有什么關(guān)聯(lián)。
IBM下了一步險棋。它表現(xiàn)了一家老牌技術(shù)公司在消除歧視方面的社會責任,將反思之火燒到比人臉識別、比偏見更深遠的領域,直到到達問題的核心——人們對AI濫用及其侵犯隱私的擔憂。
當今美國最嚴厲的隱私法是《加利福尼亞消費者隱私法》(California Consumer Privacy Act),這項法律剛剛于2020年1月1日生效。根據(jù)法律,加利福尼亞的消費者不僅有權(quán)知道自己的數(shù)據(jù)是出售還是轉(zhuǎn)讓給第三方,而且他們還有權(quán)阻止交易。
但是交易只是數(shù)據(jù)價值的一部分,即使這項“最嚴厲”的法律也沒有對技術(shù)公司可以如何獲取數(shù)據(jù)、使用用戶數(shù)據(jù)做出規(guī)定。更遑論執(zhí)法上的難度,技術(shù)作者Charlie Warzel在《紐約時報》今年1月的一份評論中稱:有關(guān)公司只是虛假地聲稱他們遵守隱私法,因為他們知道監(jiān)管機構(gòu)根本不會對其審查。
并不中立的AI
在BLM運動爆發(fā)前,有關(guān)AI偏見、AI歧視的研究和討論已持續(xù)數(shù)年。
AI并不像外界料想的那般中立,“它能增強現(xiàn)有偏見和歧視。”普華永道咨詢公司的AI道德專家(AI ethics expert)Maria Axente說。
這種被強化的偏見危害深遠。 使用AI推薦Spotify上的歌曲或Netflix上的電影,即使推薦不合口味也不會有多糟糕的后果,但如果一個AI可以決定貸款給誰、或者對患者究竟患了何種疾病做出診斷,那它是否有偏見就事關(guān)生存和生命。
2017年,算法正義聯(lián)盟(Algorithmic Justice League)創(chuàng)始人Joy Buolamwini 對IBM、微軟、曠視3家公司的人臉識別算法做了偏見測試。他收集了來自3個非洲國家和3個歐洲國家的1270張人臉照片,交給三家公司的產(chǎn)品識別,結(jié)果顯示,三個產(chǎn)品對女性的識別率低于男性、對深色人種的識別準確率遠低于白種人。其中,IBM的算法準確率誤差最大,其對淺膚色男性和深膚色女性的錯誤率相差達到了34.4%。
造成算法“偏見”的原因很簡單——主要是由數(shù)據(jù)量不足造成的。美國國家標準技術(shù)研究所和德克薩斯大學達拉斯分校的研究人員在2010年發(fā)表的一項研究就指出,東亞設計和測試的算法在識別東亞人方面更好,而西方國家設計的算法在發(fā)現(xiàn)高加索人方面更準確。造成這種結(jié)果的直接原因是它們能收集到的數(shù)據(jù)種類及其規(guī)模。
但算法偏見也不純粹是個技術(shù)問題。2017年,微軟旗下的人工智能聊天機器人Tay在Twitter上線,這款機器人推出的目標是與18-24歲的年輕人互動,并通過這種互動學習、訓練。然而24個小時后,Tay就因辱罵用戶、發(fā)表種族主義評論等表現(xiàn)被迅速撤下。事故之后,微軟換上了經(jīng)過內(nèi)容審查的版本Zo,但它并沒有找到根本性地解決問題的辦法。
機器人Tay的賬號已經(jīng)被撤銷 。
不會停止的博弈,激進分子、道德主義與技術(shù)中立者的博弈對于究竟哪些數(shù)據(jù)算隱私、哪些可以被冒犯而哪些又可以妥協(xié),社會并沒有一致意見。