當前位置:首頁 > 智能硬件 > 人工智能AI
[導讀] 在大多數(shù)科幻電影里,冷漠又殘酷是 AI 的典型形象,它們從來不會考慮什么是人情世故,既沒有人性光輝的閃耀,也沒有人性墮落的七宗罪。 然而在現(xiàn)實中,人工智能技術卻不像電影里那么沒有「人性」

在大多數(shù)科幻電影里,冷漠又殘酷是 AI 的典型形象,它們從來不會考慮什么是人情世故,既沒有人性光輝的閃耀,也沒有人性墮落的七宗罪。

然而在現(xiàn)實中,人工智能技術卻不像電影里那么沒有「人性」,不過這可不是什么好事,因為 AI 的「歧視」和「偏見」正在成為越來越多人研究的課題,而且它們確實存在。人工智能的偏見,早已深入了各個領域。

在 AI 技術應用領域,面部識別也是一項廣泛使用的應用類型,并且這會成為種族和性別偏見的另一個潛在來源。2018 年 2 月份麻省理工學院的 Joy Buolamwini 發(fā)現(xiàn),IBM、微軟和中國公司 Megvii 的三個最新的性別識別 AI 可以在 99% 的情況下準確從照片中識別一個人的性別,但這僅限于白人。對于女性黑人來說,這個準確率會降至 35%。

一個最可能的解釋是,AI 的「偏見」取決于背后訓練算法訓練的數(shù)據(jù),如果用于訓練的數(shù)據(jù)里白人男性比黑人女性更多,那顯然白人男性的識別率就會更高。IBM 后來宣布他們已經采用了新的數(shù)據(jù)集并重新訓練,微軟也表示會采取措施提高準確性。另一個研究是 Facebook 的人工智能實驗室的研究成果,他們發(fā)現(xiàn)人工智能的偏見不止存在于國家內部,在不同國家之間也是存在的。

比如當被要求識別來自低收入國家的物品時,Google、微軟和亞馬遜這些人工智能領域大佬的物體識別算法會表現(xiàn)更差。研究人員對五種流行的物體識別算法進行了測試,包括 Microsoft Azure,Clarifai、Google Cloud Vision、Amazon Rekogition 和 IBM Watson。

測試的數(shù)據(jù)集包含了 117 個類別,從鞋子到肥皂到沙發(fā)以及更是各樣的物品,這些來自于不同的家庭和地理位置??缬蛄藦牟悸〉希ǚ侵拗袞|部的一個小國家)一個 27 美元月收入的貧窮家庭,到來自烏克蘭月收入達到 10090 美元的富裕家庭。

研究人員發(fā)現(xiàn),與月收入超過 3500 美元的家庭相比,當被要求識別月收入 50 美元的家庭時,物體識別算法的誤差率大約會增加 10%,在準確性的絕對差異上甚至會更大。與索馬里和布基納法索相比,算法識別來自美國產品是準確率要提升 15-20% 左右。

這就是問題所在。目前的人工智能背后需要即為大量的數(shù)據(jù)去訓練,盡管人工智能本身不知道「歧視」和「偏見」是什么意思,但背后數(shù)據(jù)的研究人員卻會帶有這樣的思想,以至于在訓練數(shù)據(jù)的選擇上就會產生偏向性。通常情況下,在創(chuàng)建 AI 算法的過程中會有許多工程師參與,而這些工程師通常來自高收入國家的白人家庭,他們的認知也是基于此階級,他們教導 AI 認識世界也是如此。

當然這并不是全部原因,在 2015 年的一項研究中顯示,使用 Google 搜索「CEO」的圖片,其中只有 11% 的人是女性。我知道男性 CEO 的確比女性 CEO 比例要多很多,但實際上美國有 27% 的 CEO 是女性。而匹茲堡卡內基梅隆大學的 Anupam Datta 領導的另一項研究發(fā)現(xiàn),Google 的在線廣告系統(tǒng)展示的男性高收入工作也比女性多很多。

Google 對此的解釋是,廣告客戶可以制定他們的廣告只向某些用戶或網(wǎng)站展示,Google 也確實允許客戶根據(jù)用戶性別定位他們的廣告。

另一大巨頭亞馬遜也曾遇到過 AI 歧視的問題。2014 年的時候亞馬遜在愛丁堡成立了一個工程團隊以尋求一種自動化的招聘方式。他們創(chuàng)建了 500 種計算機模型,通過對過去的入職員工簡歷進行搜索,然后得出大約 50000 個關鍵詞。

「當時他們在這個算法上寄予了很大期望,喂給它 100 份簡歷,然后它會自動吐出前五名,OK,我們就雇傭這些人。」當時一位消息人士是這樣告訴的路透社。然而一年后,工程師們有一些不安的發(fā)現(xiàn)——它不喜歡女性。顯然這是因為人工智能所獲取過去十年的數(shù)據(jù)幾乎都是男性的,因此它得出了「男性更可靠」的觀點,并降低了簡歷里包含女性字樣簡歷的權重。

性別偏見還不是這套算法唯一的問題,它還吐出了不合格的求職者。2017 年,亞馬遜放棄了該項目。盡管人工智能的「偏見」已經成為一個普遍的問題,但有意思的是,人類又試圖使用人工智能技術去糾正人類本身的偏見問題。

日前舊金山宣布推出一種「偏見緩解工具」,該工具使用人工智能技術自動編輯警方報告中的嫌疑人種族等信息。它的目的是在決定某人被指控犯罪時,讓檢察官不受種族偏見的影響。目前該工具已經準備就緒,預計在 7 月 1 日正式實施。

根據(jù)舊金山地區(qū)檢察官辦公室的說法, 這個工具不僅會刪除關于種族的描述,同時還會進一步刪除關于眼睛顏色和頭發(fā)顏色等可能有意無意對檢察官造成暗示的信息,甚至地點和社區(qū)名稱也將會被刪除。它會運作良好并產生實際的效果嗎,目前還不得而知。

某種意義上說,目前人工智能的「歧視」與「偏見」是人類意識以及階級地位的投射。白人精英工程師研究出的人工智能更像「白人的人工智能」和「精英的人工智能」,同理也可以想象,如果是黑人和黃種人主導的人工智能,同樣也會對本群體比較有利。

而通過人工智能對人類本身的偏見行為進行糾錯則是一項更有意思的嘗試,如果該方法確實能緩解人類的偏見,那人類和人工智能可能會在該問題上相互收益,理想情況下能打造一個正向循環(huán)。神話故事里上帝摧毀了巴別塔使得人類不再語言文化互通,而人工智能這一改變未來的宏偉技術同樣像是一座通天高塔,如果要把它建成全人類的福祉,消除不同文化造成彼此偏見是一定要解決的問題。

本站聲明: 本文章由作者或相關機構授權發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內容真實性等。需要轉載請聯(lián)系該專欄作者,如若文章內容侵犯您的權益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或將催生出更大的獨角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉型技術解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術公司SODA.Auto推出其旗艦產品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關鍵字: 汽車 人工智能 智能驅動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產業(yè)博覽會開幕式在貴陽舉行,華為董事、質量流程IT總裁陶景文發(fā)表了演講。

關鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權最終是由生態(tài)的繁榮決定的。

關鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經營業(yè)績穩(wěn)中有升 落實提質增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質量發(fā)展策略,塑強核心競爭優(yōu)勢...

關鍵字: 通信 BSP 電信運營商 數(shù)字經濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術學會聯(lián)合牽頭組建的NVI技術創(chuàng)新聯(lián)盟在BIRTV2024超高清全產業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術創(chuàng)新聯(lián)...

關鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關鍵字: BSP 信息技術
關閉
關閉