面試官是個AI,你覺得靠譜嗎?
掃描二維碼
隨時隨地手機(jī)看文章
又到一年求職季,同樣是求職,同樣是逛招聘會,有人一擊即中,有人卻屢次鎩羽而歸。原因不僅在于求職者本身,還有一個重要的原因,就是面試官個人。不管你承認(rèn)還是不承認(rèn),每個人看待周圍的人和事都會帶有某種偏見,如性別歧視與種族偏見。
關(guān)于招聘這件大事,硅谷企業(yè)正利用AI給出求職者客觀評價,輔助HR消除主觀偏見。
Mya被招聘機(jī)構(gòu)使用,輔助HR消除偏見
艾格·格雷夫斯基一直想讓硅谷變得更加多元化。他于2012年創(chuàng)辦了一家叫做Mya Systems的公司,他希望通過這家公司減少人為因素對企業(yè)招聘的影響。“我們正嘗試剔除招聘過程中的偏見”,他說道。
格雷夫斯基正在和Mya共同實(shí)現(xiàn)他的目標(biāo)。Mya是一個很智能的聊天機(jī)器人,可以對求職者進(jìn)行面試和評估。格雷夫斯基認(rèn)為,和一些招聘人員不同,經(jīng)過編程的Mya會向求職者提出客觀的、基于工作表現(xiàn)的問題,并避免人類可能產(chǎn)生的潛意識判斷。Mya評估
求職者的簡歷時,不會關(guān)注他的外表、性別和名字。“我們正極力剝除這些因素”,格雷夫斯基說道。
格雷夫斯基表示,目前已經(jīng)有幾家大型招聘機(jī)構(gòu)正在使用Mya,這些招聘機(jī)構(gòu)用Mya來對求職者進(jìn)行初試。Mya可以根據(jù)工作的核心要求對申請者進(jìn)行篩選,了解他們的教育和專業(yè)背景,告知求職者他們所應(yīng)聘職位的細(xì)節(jié),衡量他們是否感興趣;同時還能回答求職者關(guān)于公司政策和文化方面的疑問。
然而,Mya這類智能機(jī)器人真的能消除性別偏見與種族歧視嗎?答案是否定的。
人工智能通過學(xué)習(xí)可將偏見表露無遺
長久以來人們都認(rèn)為人工智能(AI)是比人類這種受七情六欲影響的生物更客觀的存在,然而人工智能通過文本學(xué)習(xí),居然能夠?qū)⑷祟愓Z言中固有的性別偏見與種族歧視表露無遺,這就不得不讓人警惕了。
人工智能不會天生就擁有人類一樣對于性別和種族的偏見,相反,諸多在線服務(wù)與 app 中使用的以機(jī)器學(xué)習(xí)算法為代表的前沿人工智能,很有可能會模仿人類所提供的訓(xùn)練數(shù)據(jù)集中本身就具有的偏見進(jìn)行編碼。一項(xiàng)最新的研究向人們展示了人工智能如何從現(xiàn)有的英文文本中進(jìn)行學(xué)習(xí),并表現(xiàn)出了與這些文本中相同的人類偏見。
考慮到通過機(jī)器學(xué)習(xí)來進(jìn)步的人工智能在硅谷科技巨頭和全球眾多公司中受歡迎的程度,這一結(jié)果將會產(chǎn)生巨大的影響。心理學(xué)家曾經(jīng)表示,在內(nèi)隱聯(lián)想測試中無意識的偏見會從 AI 的單詞聯(lián)想實(shí)驗(yàn)中產(chǎn)生。在新的研究中,計算機(jī)科學(xué)家使用了從互聯(lián)網(wǎng)上抓取到的 220 萬個不同單詞作為文本去訓(xùn)練一個現(xiàn)成的機(jī)器學(xué)習(xí) AI,并從這項(xiàng)訓(xùn)練中復(fù)制了那些 AI 所表現(xiàn)出來的偏見。
在一些中性的詞匯聯(lián)想案例中,AI 系統(tǒng)更容易將“花”、“音樂”與“愉快”一詞進(jìn)行聯(lián)想,而不是用“昆蟲”或“武器”去匹配。但是換成人名,偏見就出現(xiàn)了,相比非洲裔美國人的名字,AI 更有可能將歐洲裔美國人的名字與“愉快”進(jìn)行聯(lián)系。同樣,AI 更傾向于將“女性”與“女孩”與藝術(shù)類詞匯進(jìn)行聯(lián)想,而不是將其與數(shù)學(xué)類詞匯聯(lián)系在一起。從總體來看,在 AI 的文本分組中,男性的姓名更容易與職業(yè)名詞聯(lián)系在一起,而女性姓名則總是與家庭詞匯相聯(lián)系。想想看,如果這種機(jī)器學(xué)習(xí)的技術(shù)用于篩選簡歷,它將會吸收文化中固有的刻板印象,得出一個充滿偏見的判斷結(jié)果。
如今流行的在線翻譯系統(tǒng)也整合學(xué)習(xí)了人類的一些偏見,就拿 Google Translate(谷歌翻譯)來舉例吧,它是通過人們使用翻譯服務(wù)的過程來進(jìn)行學(xué)習(xí)單詞的。谷歌翻譯會將土耳其語短句“O bir doctor”譯為“他是一名醫(yī)生”,然而在土耳其語的名詞中是不分陰性與陽性的。所以這句話既可以翻譯為“他是一名醫(yī)生”,也可以是“她是一名醫(yī)生”。如果將該句中的“doctor”一詞更換為土耳其語中的護(hù)士“hemsire”,得到的結(jié)果卻是“她是一名護(hù)士”。
去年,微軟公司名為 Tay 的聊天機(jī)器人開設(shè)了自己的 Twitter 賬戶,可以與公眾進(jìn)行互動。然而在賬戶開設(shè)不到一天的時間里它就成為了一個支持希特勒這種大魔頭的種族主義者,愛好傳播陰謀論——“9/11 完全是喬治·W·布什的錯,希特勒來當(dāng)總統(tǒng)都會比我們現(xiàn)在擁有的黑人猴子干得更好。唐納德·特朗普是我們唯一擁有的希望之光。”
翻譯軟件與聊天機(jī)器人的今天可能就是人工智能的明天,讓人憂慮的是通過機(jī)器學(xué)習(xí)來獲取信息的 AI 在未來全面進(jìn)入社會進(jìn)行服務(wù)的時候,也會擁有這些人類身上的偏見。
“AI 如果在機(jī)器學(xué)習(xí)中人類固有的偏見被全盤復(fù)制過來,之后也會將其學(xué)到的偏見一五一十地反饋出去,這可能會加重文化中原有的刻板印象。”普林斯頓大學(xué)信息技術(shù)政策中心的計算機(jī)科學(xué)家 Arvind Narayanan 對此十分憂慮,“這可能會進(jìn)一步創(chuàng)造出一個延續(xù)偏見的反饋回路。”
AI 會從用于訓(xùn)練的語言文本中學(xué)會偏見可能不算什么振聾發(fā)聵的大發(fā)現(xiàn),但該研究有助于人們重新思考那些認(rèn)為 AI 比人類更客觀的陳舊觀點(diǎn)。尤其是那些使用著尖端深度學(xué)習(xí)算法的科技巨頭與創(chuàng)業(yè)公司,對于需要應(yīng)對的 AI 系統(tǒng)中的潛在偏見應(yīng)該有所準(zhǔn)備,這件事宜早不宜遲。可惜到目前為止,人們對于 AI 變得具有偏見一事還是談得多干得少,還未出現(xiàn)可處理機(jī)器學(xué)習(xí)中 AI 偏見的系統(tǒng)性方法。
在機(jī)器人領(lǐng)域,深度神經(jīng)網(wǎng)絡(luò)可以是機(jī)器人展示出復(fù)雜的技能,但在實(shí)際應(yīng)用中,一旦環(huán)境發(fā)生變化,從頭學(xué)習(xí)技能并不可行。因此,如何讓機(jī)器“一次性學(xué)習(xí)”,即在“看”了一次演示后無需事先了解新的環(huán)境場景,能在不同環(huán)境中重復(fù)工作尤為重要。
“元學(xué)習(xí)”和“一次性學(xué)習(xí)”算法讓機(jī)器人快速掌握新技能
研究發(fā)現(xiàn),具有增強(qiáng)記憶能力的架構(gòu)如神經(jīng)圖靈機(jī)(NTMs)可以快速編碼和見多新信息,從而起到消除常規(guī)模型的缺點(diǎn)。在近日伯克利大學(xué)人工智能實(shí)驗(yàn)室(BAIR)在Arxiv上發(fā)布的一篇名為《One-Shot Visual Imitation Learning via Meta-Learning》的論文中,作者介紹了一種元-模擬學(xué)習(xí)(Meta-Imitation Learning,MIL)算法,使機(jī)器人可以更有效學(xué)習(xí)如何自我學(xué)習(xí),從而在一次演示后即可學(xué)得新的技能。與之前的單次學(xué)習(xí)模擬方法不同的是,這一方法可以擴(kuò)展到原始像素輸入,并且需要用于學(xué)習(xí)新技能的訓(xùn)練數(shù)據(jù)明顯減少。從在模擬平臺和真實(shí)的機(jī)器人平臺上的試驗(yàn)也表明了這一點(diǎn)。
目標(biāo):賦予機(jī)器人在只“看過”一次演示的情況下,學(xué)習(xí)與新物品互動的能力。
做法:
· 收集大量任務(wù)的Demo;
· 使用元-模擬學(xué)習(xí)進(jìn)行訓(xùn)練;
· 在未知的新任務(wù)中進(jìn)行測試。
創(chuàng)新內(nèi)容:在第一個全連接層通過偏差轉(zhuǎn)換增加梯度表現(xiàn)。
模擬測試環(huán)節(jié),這一環(huán)節(jié)使用算法提供的虛擬3D物品進(jìn)行模擬,MIL比Contexual和LSTM更好地完成了任務(wù)。
在實(shí)際場景測試環(huán)節(jié),該團(tuán)隊(duì)設(shè)計了一個抓取物品并將其放到指定容器中的任務(wù)。從上圖我們可以看到,在這一環(huán)節(jié)用于訓(xùn)練的物品與實(shí)際測試的物品無論在形狀、大小、紋理上都有著差別,MIL算法同樣較好地完成了任務(wù)。
AI 學(xué)壞了,是學(xué)習(xí)方法的錯嗎?
機(jī)器學(xué)習(xí)的方法會把 AI 教壞,但是改變 AI 學(xué)習(xí)的方式也不是完美的解決之道。不讓 AI 根據(jù)詞匯進(jìn)行聯(lián)想學(xué)習(xí),可能會讓其錯過學(xué)習(xí)詞語所表達(dá)出來的委婉含義以及無法展開學(xué)習(xí)關(guān)聯(lián)單詞,以失去一些有用的語言關(guān)系和文化傳承為代價?;蛟S我們應(yīng)該從自己身上找找原因,畢竟人類產(chǎn)生偏見的原因有部分要?dú)w咎于他們所使用的語言。人們需要弄清楚什么是偏見以及偏見在語言中的傳遞過程,避免這些不經(jīng)限制的偏見通過日益強(qiáng)大的 AI 系統(tǒng)在更大范圍里傳播。
人類的行為受到了文化傳統(tǒng)的驅(qū)動,而這種語言傳統(tǒng)中出現(xiàn)的偏見是在歷史沿革中不斷加深嵌入的。不同語言中所反映出來的歷史習(xí)慣可能是完全不一樣的。“在假定出一個刻板印象通過代際延續(xù)和組織傳播的復(fù)雜模型之前,我們必須弄清楚是否簡單的語言學(xué)習(xí)就足以解釋我們所觀察到的傳播中出現(xiàn)的偏見。”
英國巴斯大學(xué)的 Joanna Bryson 教授表示相比改變 AI 的學(xué)習(xí)方式,AI 的表達(dá)方式更應(yīng)該有所改變。所以 AI 在學(xué)習(xí)的過程中依然會“聽到”那些反映了種族主義與性別歧視的詞匯,但是會有一套道德過濾器去避免它將這些情緒表達(dá)出來。這種關(guān)乎道德判斷的過濾器是有爭議的,歐盟已經(jīng)通過了法律條款確保人工智能所使用的過濾器是對外公開的。
在 Bryson 教授看來,阻止 AI 學(xué)壞的關(guān)鍵不在 AI 本身,而在與人類怎么做。“最重要的是我們自己應(yīng)該了解更多信息傳遞的過程,明白單詞從哪里來以及內(nèi)隱偏見以何種方式影響了我們所有人。”