10月11日,根據外媒報道稱亞馬遜的機器人學習專家發(fā)現(xiàn)其使用的招聘引擎不喜歡女性。因此,該項目被亞馬遜關掉了。
據悉,最早在2014年,亞馬遜的這支團隊一直在開發(fā)電腦程序用來篩選審查求職者的簡歷,核心的目的是將尋找頂尖人才的任務或者說招聘任務自動化。亞馬遜的實驗性招聘工具使用AI為求職者打分,分數(shù)從一星到五星不等。開發(fā)該程序的工程師曾表示,亞馬遜想要將這一程序打造成引擎,給該程序100份簡歷,程序會列出前五人,其就會聘用列出的人才。
2015年,亞馬遜發(fā)現(xiàn)他們使用AI系統(tǒng)的時候并未對軟件開發(fā)人員和其他技術職位求職者進行性別中立的評估。采用的模型訓練方式是通過觀察過去10年被提交給亞馬遜公司的簡歷中找出固有模式,以此篩選審查求職者。但在過去的10年中,提交給亞馬遜的簡歷大部分來自男性,這就導致了亞馬遜使用的AI系統(tǒng)告訴自己男性求職者更受到青睞。
不僅如此,該AI系統(tǒng)還對女性持有一定偏見。該系統(tǒng)在簡歷中含有“女子象棋俱樂部隊長”這類簡歷的語句中含有“女子”的詞匯非常敏感。此外,該系統(tǒng)還下調了兩所女子學院的畢業(yè)生評級。
因此,雖然亞馬遜招聘人員表示他們從來沒有僅依靠排名來做出判斷,但在去年年初亞馬遜最終還是選擇了解散團隊,高管們對該項目感到非常失望。
隨著人工智能技術的發(fā)展和商業(yè)化落地的逐漸廣泛,一方面AI技術顯著提升了效率與成本,也帶給了人們更加便捷的生活;但一方面AI作惡、歧視的現(xiàn)象也不斷引發(fā)爭議與討論。
本次AI招聘系統(tǒng)對女性的偏見的本質在于機器學習的局限性??▋然仿〈髮W教授尼哈爾·沙赫認為,要實現(xiàn)利用科技擴大招聘網絡減少對人類招聘者主觀意見的以來,開發(fā)者還有很多工作要做。在他開來:“如何確保算法是公平的,如何確保算法是真正可以解釋的,實現(xiàn)這些目標都還十分遙遠。”
但科技公司們仍在努力。
雖然解散了這一團隊,但亞馬遜在愛丁堡工程中心成立了新的團隊,其所屬的人員也已經增加到了12人。其目標是開發(fā)能夠迅速在網絡上搜索并發(fā)現(xiàn)有價值應聘者的AI系統(tǒng)。目前,該團隊已經創(chuàng)建了500個計算機模型,它們重點關注特定的工作功能和地點。團隊開發(fā)者將教授每個模型辨認出過去求職者建立上的5萬個術語。