當(dāng)前位置:首頁 > 消費(fèi)電子 > 觸控感測
[導(dǎo)讀] 皮尤研究中心的一項(xiàng)最新研究發(fā)現(xiàn),F(xiàn)acebook 的新聞圖片中,男性出現(xiàn)的頻率是女性的兩倍,且大部分的圖片是關(guān)于男性的。 考慮到當(dāng)下有 43% 的美國成年公民主要通過 Facebook

皮尤研究中心的一項(xiàng)最新研究發(fā)現(xiàn),F(xiàn)acebook 的新聞圖片中,男性出現(xiàn)的頻率是女性的兩倍,且大部分的圖片是關(guān)于男性的。

考慮到當(dāng)下有 43% 的美國成年公民主要通過 Facebook 獲取新聞資訊,皮尤研究中心使用機(jī)器視覺測試了 2018 年 4 月至 6 月期間 17 個(gè)全國性新聞媒體在 Facebook 上所發(fā)布新聞圖片的性別比例情況。測試算法最終識(shí)別出了 53067 人,其中女性占 33%,男性占 67%,差距懸殊。但在現(xiàn)實(shí)生活中,美國人口的性別比例大致是均衡的。

那么,是誰在「扭曲」兩性?

本期全媒派綜合皮尤研究中心以及 MIT 媒體實(shí)驗(yàn)室科學(xué)家 Joy Buolamwini 的研究發(fā)現(xiàn),走近人臉識(shí)別下兩性的比例失衡現(xiàn)象,一起探究:為何有時(shí)候,算法眼中的你處在可男可女的模糊地帶?進(jìn)一步講,性別之外還有哪些偏見?為了應(yīng)對(duì)這種狀況,我們可以做些什么?

人臉識(shí)別下的性別失衡

皮尤的這份報(bào)告指出,在 Facebook 上不同類型的新聞報(bào)道中,女性在圖片中的「在場」情況始終低于男性。在與經(jīng)濟(jì)有關(guān)的帖子中,只有 9% 的圖片為純女性內(nèi)容,與此形成鮮明對(duì)比的是,純男性圖像占到了 69%。女性在娛樂新聞圖片中擁有更多展示機(jī)會(huì),但總體上仍低于男性。

你也許會(huì)為女性身影的稀少而感到疑惑,這在一定程度上和更大的社會(huì)現(xiàn)實(shí)相關(guān)。比如,在關(guān)于職業(yè)足球隊(duì)的新聞報(bào)道中,識(shí)別出的圖像大多都是男性;在針對(duì)美國參眾兩院(女性占比為 25%)的報(bào)道中,識(shí)別出的女性面孔當(dāng)然要比男性少得多。

拋開這些顆粒度更小的細(xì)節(jié)不談,這份研究仍然揭示了一些值得警覺的現(xiàn)狀:在 Facebook 新聞圖像中,男性比女性更為突顯;在兩人或更多人的群像中,男性往往比女性多。同時(shí),男性會(huì)占據(jù)更大的視覺空間。

研究人員還測量了圖像中女性面部與男性面部的大小情況(目前的技術(shù)只能捕捉人臉的大小情況,忽略了頭發(fā)、珠寶和頭飾等因素的影響)。結(jié)果顯示,男性面孔平均占到的圖像面積更大,這種差異導(dǎo)致圖像中男性平均面部尺寸比女性大出了 10%。在 Facebook 的圖像中,這表現(xiàn)為男性人物能給讀者帶來更大的視覺沖擊。

具體來看,在涉及經(jīng)濟(jì)相關(guān)的帖子中,女性面孔的平均尺寸比男性小 19%,但在娛樂相關(guān)的內(nèi)容中,女性面孔的平均尺寸比男性大 7%。

像面部識(shí)別這樣的機(jī)器視覺工具,正被越來越廣泛地應(yīng)用在執(zhí)法、廣告及其他領(lǐng)域,對(duì)性別的識(shí)別,是其基本功能之一。

機(jī)器學(xué)習(xí)的確可以極大地提高我們處理數(shù)據(jù)的效率,但與傳統(tǒng)的計(jì)算機(jī)程序不同,機(jī)器學(xué)習(xí)遵循一系列嚴(yán)格的步驟,它們的決策方式在很大程度上隱而不顯,并且高度依賴于用來訓(xùn)練自身的數(shù)據(jù)。這些特點(diǎn)可能導(dǎo)致,機(jī)器學(xué)習(xí)工具產(chǎn)生更難以被人理解和提前預(yù)測到的系統(tǒng)性偏差。

從這個(gè)角度看,皮尤研究中心用一個(gè)簡化的實(shí)驗(yàn),展示了用于訓(xùn)練算法的數(shù)據(jù)是如何將隱藏的偏差、意外的錯(cuò)誤引入到了系統(tǒng)結(jié)果中。研究人員表示,隨著算法正在人類社會(huì)中發(fā)揮越來越重要的決策影響力,了解它們的局限、偏差具有重要意義。

「偏見」帶來了什么?

最近,包括圖靈獎(jiǎng)獲得者 Yoshua Bengio 在內(nèi)的 26 位 AI 領(lǐng)域頂尖研究者,在一篇公開博文中要求亞馬遜立即停止向警方出售其人工智能服務(wù) Amazon Rekognition。亞馬遜云計(jì)算部門前首席科學(xué)家 Anima Anandkumar 等人也加入了這一聯(lián)合呼吁。

此前,多倫多大學(xué)的研究人員 Deborah Raji 和麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員 Joy Buolamwini 撰寫了研究報(bào)告,指出亞馬遜的 RekogniTIon 在檢測圖像中膚色較深的女性性別時(shí),要比判斷膚色較淺男性性別的錯(cuò)誤率高得多。該研究成果也得到了學(xué)者們的支持,但亞馬遜曾對(duì)兩人撰寫的這篇報(bào)告及研究方法提出過異議。

Joy Buolamwini 主導(dǎo)了一個(gè)名為 Gender Shades 的 AI 研究項(xiàng)目,在研究了各個(gè)領(lǐng)先科技公司的面部識(shí)別系統(tǒng)后發(fā)現(xiàn),所有系統(tǒng)在識(shí)別男性臉孔上表現(xiàn)更佳,所有系統(tǒng)在識(shí)別淺色臉孔上的準(zhǔn)確率更高。深色皮膚女性的平均識(shí)別錯(cuò)誤率高達(dá) 35%,深色皮膚男性的為 12%,淺色皮膚女性為 7%,淺色皮膚男性的錯(cuò)誤率不超過 1%。

面部識(shí)別系統(tǒng)的「偏見」可能帶來什么?

「不管其正確性如何,面部識(shí)別技術(shù)都可能被濫用,」Joy 說道。準(zhǔn)確或者不準(zhǔn)確地使用面部識(shí)別技術(shù)對(duì)他人的身份、面孔、性別進(jìn)行分析,都可能侵犯到他人的自由。比如,不準(zhǔn)確的識(shí)別可能會(huì)使得無辜者蒙冤,受到執(zhí)法人員的無理審查,這并不是假想的情況。英國非盈利組織「老大哥觀察」(Big Brother Watch UK)曾發(fā)布一份報(bào)告,強(qiáng)調(diào)倫敦警察廳使用的面部識(shí)別技術(shù)有超過 90% 的性別識(shí)別錯(cuò)誤率。去年夏天,英國媒體報(bào)道了這樣一則新聞,一名年輕黑人男性因?yàn)槊娌孔R(shí)別技術(shù)失誤,被誤認(rèn)為嫌犯而在眾目睽睽之下遭到警方搜身檢查。

一份被泄露的報(bào)告也顯示,IBM 為執(zhí)法機(jī)構(gòu)提供了技術(shù),能夠根據(jù)頭發(fā)顏色、膚色和面部特征等搜索視頻中的人物。這一消息,引發(fā)了人們對(duì)警方將利用該技術(shù)關(guān)注特定種族的擔(dān)憂。

為了減少搜索人臉?biāo)璧臅r(shí)間,執(zhí)法部門正在大量使用性別分類。如果需匹配人臉的性別是已知的,通過簡單的二分法,就可以大量減少需要處理的潛在匹配數(shù)。性別分類正廣泛應(yīng)用到警務(wù)活動(dòng)中。

當(dāng)這些有偏差的識(shí)別系統(tǒng)被廣泛應(yīng)用到社會(huì)生活中,就可能導(dǎo)致更糟糕的后果。

TED 演講中,Joy 和大家分享了一個(gè)小故事:

在同樣的光線條件下,面部識(shí)別系統(tǒng)只能檢測到淺膚色的參與者;只有戴上白色面具,才能檢測出深膚色的參與者?!冈谌斯ぶ悄芄ぞ叽_定人臉的身份或者辨別表情信息前,最基本的前提是,檢測出人臉。但是,面部識(shí)別系統(tǒng)在檢測黑皮膚個(gè)體上,屢次失敗。我只能安慰自己,算法不是種族主義者,是自己的臉太黑了?!笿oy 說道。

偏差來自哪里?

如果對(duì)比開發(fā)者自己聲明的準(zhǔn)確率和研究者們的研究結(jié)論,會(huì)發(fā)現(xiàn)一個(gè)有趣的事情:公司發(fā)布的數(shù)據(jù)和獨(dú)立第三方的外部準(zhǔn)確率總是有所出入。那么,是什么導(dǎo)致了這一差異?

Joy 提醒我們關(guān)注基準(zhǔn)數(shù)據(jù)集的偏差。「當(dāng)我們討論面部分析技術(shù)的準(zhǔn)確性時(shí),是通過一系列圖像或者視頻測試來完成的。這些圖像數(shù)據(jù)構(gòu)成了一個(gè)基準(zhǔn),但并不是所有的基準(zhǔn)都是平等的。」

亞馬遜相關(guān)負(fù)責(zé)人表示,該公司使用了超過 100 萬張面孔數(shù)據(jù)作為基準(zhǔn)來檢測產(chǎn)品的準(zhǔn)確率。但是,不要被這個(gè)看起來很大的樣本迷惑了。「因?yàn)槲覀儾恢阑鶞?zhǔn)數(shù)據(jù)的詳細(xì)人口統(tǒng)計(jì)學(xué)數(shù)據(jù)。沒有這些信息,我們就無法判斷,是否在基準(zhǔn)選擇上,就可能埋下了種族、性別或者膚色等偏見的可能?!?/p>

Facebook 曾宣布,在名為 Labeled Faces in the Wild(簡稱 LFW,為世界上人臉識(shí)別最知名的數(shù)據(jù)集之一)的數(shù)據(jù)集測試中,自己面部識(shí)別系統(tǒng)的準(zhǔn)確率高達(dá) 97%。但當(dāng)研究人員查看這個(gè)所謂的黃金標(biāo)準(zhǔn)數(shù)據(jù)集時(shí),卻發(fā)現(xiàn)這個(gè)數(shù)據(jù)集中有近 77% 的男性,同時(shí)超過 80% 是白人。

為了在數(shù)據(jù)層就盡最大可能地剔除偏差,Joy 提出,應(yīng)當(dāng)構(gòu)建更具包容性的基準(zhǔn)數(shù)據(jù)集。為了平衡基準(zhǔn)數(shù)據(jù),她列出了世界上婦女在議會(huì)所占比例最高的十個(gè)國家,其中盧旺達(dá)以超過 60% 的女性比例領(lǐng)先世界。考慮到北歐國家和少數(shù)非洲國家具有典型代表性,Joy 選定了 3 個(gè)非洲國家和 3 個(gè)北歐國家,通過選擇來自這些國家年輕、深膚色的個(gè)體數(shù)據(jù)來平衡數(shù)據(jù)集中的皮膚等類型。

正是基于這個(gè)更平衡的數(shù)據(jù)集,他們對(duì)亞馬遜、Kairos、IBM、Face++等公司的面部識(shí)別系統(tǒng)進(jìn)行了重新評(píng)估。在 2018 年 8 月的研究中,他們發(fā)現(xiàn),亞馬遜和 Kairos 在白人男性識(shí)別工作上表現(xiàn)優(yōu)秀,但亞馬遜對(duì)有色人種的女性面孔識(shí)別的準(zhǔn)確率很低,僅為 68.6%。

Joy 表示,現(xiàn)實(shí)世界中的臉部識(shí)別要比實(shí)驗(yàn)檢測更為復(fù)雜和困難,他們建立的基準(zhǔn)數(shù)據(jù)集也并非完全經(jīng)受得住考驗(yàn),「但這就好比跑步比賽,在基準(zhǔn)測試中的出色表現(xiàn),起碼能保證你不會(huì)剛起步就摔倒?!?/p>

即便在同樣的基準(zhǔn)下,面部識(shí)別系統(tǒng)的準(zhǔn)確度數(shù)字可能也會(huì)發(fā)生變化。人工智能并不完美。在這種情況下,通過提供置信度給用戶更具體的判斷信息是一個(gè)有用的做法。

面部識(shí)別技術(shù)已經(jīng)被廣泛地應(yīng)用在大規(guī)模監(jiān)視、人工智能武器化和更多的執(zhí)法環(huán)境中。但是,這項(xiàng)強(qiáng)大的技術(shù)是在沒有得到充分監(jiān)督的情況下,快速發(fā)展著。

為了減少對(duì)面部識(shí)別技術(shù)的濫用,算法正義聯(lián)盟 (Algorithmic JusTIce League) 和隱私與技術(shù)中心 (Center on Privacy & Technology) 發(fā)起了「安全面孔承諾」(Safe Face Pledge) 活動(dòng)。在目前,包括亞馬遜在內(nèi)的很多科技公司尚未加入這一承諾?!父鶕?jù)我們的研究,貿(mào)然向執(zhí)法部門或者政府機(jī)構(gòu)出售面部識(shí)別系統(tǒng)將是不負(fù)責(zé)任的?!棺鳛樗惴ㄕx聯(lián)盟創(chuàng)始人之一的 Joy 希望,在未來,更多的機(jī)構(gòu)能加入到「安全面孔承諾」,能夠負(fù)責(zé)任地、符合道義地為面部分析技術(shù)的發(fā)展付出行動(dòng)。

畢竟,算法偏見的背后,其實(shí)是我們?nèi)祟愖约旱钠姟?/p>

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動(dòng)力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉