榮威RX5全方位解析,互聯(lián)網(wǎng)汽車到底酷在哪
機(jī)器人并不只搶走人類的工作,它們也開始向人類發(fā)放工作崗位了。參加招聘行業(yè)的任何一場活動(dòng),你都會(huì)發(fā)現(xiàn)空氣中彌漫著像“機(jī)器學(xué)習(xí)”、“大數(shù)據(jù)”和“預(yù)測分析”這樣的字眼。
在招聘中使用這些工具的理由很簡單。機(jī)器人招聘者可以快速篩選數(shù)以千計(jì)的應(yīng)聘者,效率遠(yuǎn)高于人類。它們還能做到更加公平。因?yàn)樗鼈儾粫?huì)像人類那樣帶著有意或無意的偏見,它們會(huì)招聘到一批更多元化和擇優(yōu)錄用的員工。
這是個(gè)很誘人的想法,但也是危險(xiǎn)的。算法的中立并非是其固有,而是因?yàn)樗鼈兛吹降氖澜缰皇?ldquo;0”和“1”。
首先,任何機(jī)器學(xué)習(xí)的算法,并不會(huì)比它所學(xué)習(xí)的訓(xùn)練數(shù)據(jù)更好。以學(xué)術(shù)研究者科林·李(Colin Lee)今年向媒體發(fā)布的博士論文為例,他分析了44.1769萬份成功和不成功的求職申請(qǐng),建立了一個(gè)準(zhǔn)確度達(dá)70%至80%的模型,可預(yù)測哪些應(yīng)聘者會(huì)被邀請(qǐng)參加面試。該新聞稿稱,這一算法潛在可用作工具,用于在篩選大量簡歷的過程中避免“人為錯(cuò)誤和無意識(shí)偏見”。
但這樣的模型會(huì)吸收最初招聘決定中的人為職場偏見。例如,上述研究發(fā)現(xiàn),年齡因素可以在最大程度上預(yù)測該應(yīng)聘者是否會(huì)被邀請(qǐng)面試,最年輕和最年長的應(yīng)聘者最不可能成功。你可能覺得這挺公平,因?yàn)闆]有經(jīng)驗(yàn)的年輕人干不好,但拒絕年長應(yīng)聘者的常見做法似乎值得調(diào)查,而不是被編入程序和得以延續(xù)。
科林承認(rèn)這些問題的存在,并建議最好從簡歷中剔除一些屬性(例如:性別、年齡和種族)再加以使用。即使那樣,算法仍有可能帶有歧視。在今年發(fā)表的一篇論文中,索倫·巴洛卡斯(Solon Barocas)和安德魯·謝爾博斯特(Andrew Selbst)這兩位學(xué)者使用了一個(gè)案例,即雇主希望挑選最有可能長期留在工作崗位上的雇員。如果歷史數(shù)據(jù)顯示,女性雇員在工作崗位上停留的時(shí)間大大少于男性雇員(可能因?yàn)楫?dāng)她們有了孩子便會(huì)離職),算法就有可能利用那些性別指向明確的屬性,得出對(duì)女性不利的結(jié)果。
應(yīng)聘者住址與辦公室之間的距離如何?這也可能是預(yù)測該雇員出勤率和在公司服務(wù)年限的不錯(cuò)的預(yù)測因素;但它可能也會(huì)在無意間歧視某些群體,因?yàn)椴煌淖≌鐓^(qū)有不同的種族和年齡特征。
這些現(xiàn)象提出了一個(gè)棘手問題:在理性和非有意的情況下,歧視是否錯(cuò)誤?這是一個(gè)模糊的法律領(lǐng)域。在美國,根據(jù)“差別影響”(disparate impact)原則,貌似中立的雇傭?qū)嵺`若超出比例地傷害了“受保護(hù)階層”,即為不合法,即便雇主并非有意歧視。但雇主若能證明該做法有很強(qiáng)的商業(yè)理由,就能為自己成功辯護(hù)。如果使用算法的意圖僅僅是為相關(guān)職位招募最佳人選,那可能是個(gè)足夠好的辯護(hù)理由。
話雖如此,那些希望擁有更多元化的員工隊(duì)伍的雇主,顯然不能想當(dāng)然地認(rèn)為只需把招聘交給電腦去做。假如這正是他們想要的,那他們也得把數(shù)據(jù)運(yùn)用得更富想象力一些。
比如說,與其將他們自己的公司文化設(shè)為既定條件,進(jìn)而尋找統(tǒng)計(jì)學(xué)上最有可能在該文化中成功的人選,不如找到相關(guān)數(shù)據(jù)顯示,一支更為多元化的員工隊(duì)伍在哪些情況下會(huì)成功。
如果機(jī)器學(xué)習(xí)唯一學(xué)到的只是你的過去,那么它將無法推動(dòng)你的員工隊(duì)伍走向未來。