招聘決策還充滿了人為偏見,導致一些組織將至少部分員工搜索工作交給外部技術(shù)公司,后者使用機器學習算法篩選申請人。這種思維認為,如果人類很難找到最適合自己公司的員工,那么一臺機器可能會做得更好,更有效。
但是,康奈爾大學計算機與信息科學學者團隊的最新研究向有關(guān)這些算法以及開發(fā)和使用它們的技術(shù)公司提出了疑問:自動篩選過程的公正性如何?算法是如何構(gòu)建的?誰設(shè)計的?按什么數(shù)據(jù)支撐的?他們發(fā)現(xiàn),在這個新興領(lǐng)域中,公司傾向于青睞模糊不清而不是公開透明。在算法領(lǐng)域上缺乏共識,缺乏“偏見”和“公平”的正式定義,使得科技公司能夠根據(jù)自己的條件定義算法偏見。
“我認為算法決策工具的創(chuàng)建者越來越認識到,他們需要特別注意它們的算法工具是怎樣影響人們的”計算機科學的博士生,Manish Raghavan說。 “我們研究中遇到許多技術(shù)供應商都承認這種了(影響),他們正在采取措施解決偏見和歧視。但是,在如何正確執(zhí)行方面明顯缺乏共識或指導。”
為了了解這些工具,研究人員搜尋了可用的公共信息,以及公司采取了哪些措施來評估和緩解算法偏差。受知識產(chǎn)權(quán)法保護,科技公司不必披露任何有關(guān)其算法模型的職前甄選信息,但也有些公司選擇了提供信息。研究人員研究了19個專門從事算法的職前篩選的供應商,對公司網(wǎng)站,網(wǎng)絡研討會和任何可用的文檔進行了梳理,以深入了解供應商的要求和做法。他們發(fā)現(xiàn),很少有供應商提供有關(guān)如何驗證評估或披露有關(guān)如何減輕算法偏差的具體信息。
Raghavan說:“許多供應商都沒有提到消除偏見,這尤其令人擔憂,因為他們根本沒有考慮偏見?!奔词顾麄兪褂谩捌姟焙汀肮健边@樣的術(shù)語,但這些術(shù)語也可能是模糊的。供應商可以聲稱其評估算法是“公平的”,而無需透露公司如何定義公平性。
那難道算法不適合篩選申請人嗎?并不是的,盡管算法存在許多缺陷,但確實有潛力為更公平的社會做出貢獻,我們需要做進一步的工作以確保我們能夠理解和減輕它們帶來的偏見。畢竟,從我們多年經(jīng)驗來說,求職者面試本身就會遭受各種各樣的歧視。該團隊希望這份研究能讓算法公司對職前評估中道德行為有著更清晰的認知。