AI算法雖然存在許多缺陷 但確實(shí)有潛力為更公平的社會(huì)做出貢獻(xiàn)
招聘決策還充滿了人為偏見,導(dǎo)致一些組織將至少部分員工搜索工作交給外部技術(shù)公司,后者使用機(jī)器學(xué)習(xí)算法篩選申請人。這種思維認(rèn)為,如果人類很難找到最適合自己公司的員工,那么一臺(tái)機(jī)器可能會(huì)做得更好,更有效。
但是,康奈爾大學(xué)計(jì)算機(jī)與信息科學(xué)學(xué)者團(tuán)隊(duì)的最新研究向有關(guān)這些算法以及開發(fā)和使用它們的技術(shù)公司提出了疑問:自動(dòng)篩選過程的公正性如何?算法是如何構(gòu)建的?誰設(shè)計(jì)的?按什么數(shù)據(jù)支撐的?他們發(fā)現(xiàn),在這個(gè)新興領(lǐng)域中,公司傾向于青睞模糊不清而不是公開透明。在算法領(lǐng)域上缺乏共識(shí),缺乏“偏見”和“公平”的正式定義,使得科技公司能夠根據(jù)自己的條件定義算法偏見。
“我認(rèn)為算法決策工具的創(chuàng)建者越來越認(rèn)識(shí)到,他們需要特別注意它們的算法工具是怎樣影響人們的”計(jì)算機(jī)科學(xué)的博士生,Manish Raghavan說。 “我們研究中遇到許多技術(shù)供應(yīng)商都承認(rèn)這種了(影響),他們正在采取措施解決偏見和歧視。但是,在如何正確執(zhí)行方面明顯缺乏共識(shí)或指導(dǎo)。”
為了了解這些工具,研究人員搜尋了可用的公共信息,以及公司采取了哪些措施來評(píng)估和緩解算法偏差。受知識(shí)產(chǎn)權(quán)法保護(hù),科技公司不必披露任何有關(guān)其算法模型的職前甄選信息,但也有些公司選擇了提供信息。研究人員研究了19個(gè)專門從事算法的職前篩選的供應(yīng)商,對(duì)公司網(wǎng)站,網(wǎng)絡(luò)研討會(huì)和任何可用的文檔進(jìn)行了梳理,以深入了解供應(yīng)商的要求和做法。他們發(fā)現(xiàn),很少有供應(yīng)商提供有關(guān)如何驗(yàn)證評(píng)估或披露有關(guān)如何減輕算法偏差的具體信息。
Raghavan說:“許多供應(yīng)商都沒有提到消除偏見,這尤其令人擔(dān)憂,因?yàn)樗麄兏緵]有考慮偏見?!奔词顾麄兪褂谩捌姟焙汀肮健边@樣的術(shù)語,但這些術(shù)語也可能是模糊的。供應(yīng)商可以聲稱其評(píng)估算法是“公平的”,而無需透露公司如何定義公平性。
那難道算法不適合篩選申請人嗎?并不是的,盡管算法存在許多缺陷,但確實(shí)有潛力為更公平的社會(huì)做出貢獻(xiàn),我們需要做進(jìn)一步的工作以確保我們能夠理解和減輕它們帶來的偏見。畢竟,從我們多年經(jīng)驗(yàn)來說,求職者面試本身就會(huì)遭受各種各樣的歧視。該團(tuán)隊(duì)希望這份研究能讓算法公司對(duì)職前評(píng)估中道德行為有著更清晰的認(rèn)知。