我們已經(jīng)可以向機器人求個職
機器人并不只搶走人類的工作,它們也開始向人類發(fā)放工作崗位了。參加招聘行業(yè)的任何一場活動,你都會發(fā)現(xiàn)空氣中彌漫著像“機器學習”、“大數(shù)據(jù)”和“預測分析”這樣的字眼。
在招聘中使用這些工具的理由很簡單。機器人招聘者可以快速篩選數(shù)以千計的應(yīng)聘者,效率遠高于人類。它們還能做到更加公平。因為它們不會像人類那樣帶著有意或無意的偏見,它們會招聘到一批更多元化和擇優(yōu)錄用的員工。
這是個很誘人的想法,但也是危險的。算法的中立并非是其固有,而是因為它們看到的世界只是“0”和“1”。
首先,任何機器學習的算法,并不會比它所學習的訓練數(shù)據(jù)更好。以學術(shù)研究者科林·李(Colin Lee)今年向媒體發(fā)布的博士論文為例,他分析了44.1769萬份成功和不成功的求職申請,建立了一個準確度達70%至80%的模型,可預測哪些應(yīng)聘者會被邀請參加面試。該新聞稿稱,這一算法潛在可用作工具,用于在篩選大量簡歷的過程中避免“人為錯誤和無意識偏見”。
但這樣的模型會吸收最初招聘決定中的人為職場偏見。例如,上述研究發(fā)現(xiàn),年齡因素可以在最大程度上預測該應(yīng)聘者是否會被邀請面試,最年輕和最年長的應(yīng)聘者最不可能成功。你可能覺得這挺公平,因為沒有經(jīng)驗的年輕人干不好,但拒絕年長應(yīng)聘者的常見做法似乎值得調(diào)查,而不是被編入程序和得以延續(xù)。
科林承認這些問題的存在,并建議最好從簡歷中剔除一些屬性(例如:性別、年齡和種族)再加以使用。即使那樣,算法仍有可能帶有歧視。在今年發(fā)表的一篇論文中,索倫·巴洛卡斯(Solon Barocas)和安德魯·謝爾博斯特(Andrew Selbst)這兩位學者使用了一個案例,即雇主希望挑選最有可能長期留在工作崗位上的雇員。如果歷史數(shù)據(jù)顯示,女性雇員在工作崗位上停留的時間大大少于男性雇員(可能因為當她們有了孩子便會離職),算法就有可能利用那些性別指向明確的屬性,得出對女性不利的結(jié)果。
應(yīng)聘者住址與辦公室之間的距離如何?這也可能是預測該雇員出勤率和在公司服務(wù)年限的不錯的預測因素;但它可能也會在無意間歧視某些群體,因為不同的住宅社區(qū)有不同的種族和年齡特征。
這些現(xiàn)象提出了一個棘手問題:在理性和非有意的情況下,歧視是否錯誤?這是一個模糊的法律領(lǐng)域。在美國,根據(jù)“差別影響”(disparate impact)原則,貌似中立的雇傭?qū)嵺`若超出比例地傷害了“受保護階層”,即為不合法,即便雇主并非有意歧視。但雇主若能證明該做法有很強的商業(yè)理由,就能為自己成功辯護。如果使用算法的意圖僅僅是為相關(guān)職位招募最佳人選,那可能是個足夠好的辯護理由。
話雖如此,那些希望擁有更多元化的員工隊伍的雇主,顯然不能想當然地認為只需把招聘交給電腦去做。假如這正是他們想要的,那他們也得把數(shù)據(jù)運用得更富想象力一些。
比如說,與其將他們自己的公司文化設(shè)為既定條件,進而尋找統(tǒng)計學上最有可能在該文化中成功的人選,不如找到相關(guān)數(shù)據(jù)顯示,一支更為多元化的員工隊伍在哪些情況下會成功。
如果機器學習唯一學到的只是你的過去,那么它將無法推動你的員工隊伍走向未來。