AI管理人才怎樣做才符合道德規(guī)范
掃描二維碼
隨時(shí)隨地手機(jī)看文章
在人才管理中,相較于依賴招聘經(jīng)理的人工篩選評(píng)估,AI模型,可以更好地幫助減輕對(duì)潛在雇員的偏見,增加組織用人的多樣性、包容性。
人工智能已經(jīng)打亂了我們生活的各個(gè)領(lǐng)域——從亞馬遜和阿里巴巴等公司精心策劃的購物體驗(yàn),到Y(jié)ouTube和Netflix等頻道用個(gè)性化推薦來推銷其最新內(nèi)容。但是,說到職場(chǎng),在很多方面,人工智能還處于初級(jí)階段。尤其是當(dāng)我們考慮到它開始改變?nèi)瞬殴芾淼姆绞綍r(shí),更是如此。用一個(gè)熟悉的比喻: 職場(chǎng)中的人工智能處于撥號(hào)模式。5G WiFi階段尚未到來,但我們毫不懷疑它會(huì)到來。
誠(chéng)然,對(duì)于人工智能能做什么和不能做什么,以及如何定義它,人們有很多困惑。然而,在人才爭(zhēng)奪戰(zhàn)中,人工智能扮演著一個(gè)非常特殊的角色: 為機(jī)構(gòu)提供對(duì)候選人職業(yè)行為、表現(xiàn)潛力更精準(zhǔn)、有效的預(yù)測(cè)。與傳統(tǒng)招聘方式不同,比如員工推薦、簡(jiǎn)歷篩選、面對(duì)面面試,人工智能可以發(fā)現(xiàn)人眼捕捉不到的特征。
許多人工智能系統(tǒng)使用真實(shí)的人作為特定角色的成功模型。這類人的集合作為訓(xùn)練數(shù)據(jù)集,通常包含了被定義為“高績(jī)效”的管理者和員工。人工智能系統(tǒng)處理并比較各種求職者的個(gè)人資料和它根據(jù)訓(xùn)練集創(chuàng)建的“模范”雇員。然后,它為公司提供一個(gè)概率估計(jì),即候選人的屬性與理想員工的屬性匹配的程度。
理論上,這種方法可以更快、更有效地為合適的崗位匹配合適的人。但是,正如你可能已經(jīng)意識(shí)到的,它已經(jīng)成為一種希望和危險(xiǎn)的源泉。如果訓(xùn)練集是多樣的,如果無偏差的人口統(tǒng)計(jì)學(xué)特征用于描述其中的人,且算法是無偏的,那么這個(gè)技術(shù)確實(shí)可以比人類更好地減輕人類的偏見、擴(kuò)大多樣性、社會(huì)經(jīng)濟(jì)包容性。然而,如果訓(xùn)練集,實(shí)際的數(shù)據(jù),或者兩者都是偏態(tài)分布的,而且算法也沒有充分的審核,那么人工智能只會(huì)加劇招聘中的偏差和組織中的同質(zhì)性問題。
為了快速提升人才管理以及充分利用人工智能的潛力,我們需要將重點(diǎn)從開發(fā)更具道德的人力資源系統(tǒng)轉(zhuǎn)移到開發(fā)更具道德的人工智能。當(dāng)然,從人工智能中消除偏見并不容易。事實(shí)上,這很難。 但我們的論點(diǎn)是基于我們的信念,即它遠(yuǎn)比從人類自身移除它更可行。
在識(shí)別人才或潛力方面,大多數(shù)機(jī)構(gòu)還是會(huì)盡力而為。招聘人員在決定誰被淘汰之前只需要花費(fèi)幾秒鐘的時(shí)間看一看簡(jiǎn)歷。招聘經(jīng)理利用所謂的“直覺”或是忽視硬數(shù)據(jù),依靠文化契合度進(jìn)行招聘——由于普遍缺乏客觀、嚴(yán)格的業(yè)績(jī)衡量標(biāo)準(zhǔn),這一問題變得更為嚴(yán)重。另外,越來越多的公司實(shí)施的無意識(shí)的偏態(tài)的數(shù)據(jù)訓(xùn)練往往被發(fā)現(xiàn)是無效的,有時(shí)甚至?xí)骨闆r更糟。通常,訓(xùn)練只關(guān)注個(gè)體的差別,而忽視了樣本量小的類別的結(jié)構(gòu)化偏態(tài)。
盡管批評(píng)者認(rèn)為人工智能并沒有更好,但他們常常忘記,這些系統(tǒng)反映了我們自己的行為。我們很快就會(huì)責(zé)怪人工智能預(yù)測(cè)白人(可能也是白人男性)經(jīng)理會(huì)獲得更高的績(jī)效評(píng)級(jí)。但這個(gè)發(fā)生的原因是我們沒有對(duì)訓(xùn)練數(shù)據(jù)中績(jī)效評(píng)級(jí)的偏態(tài)分布進(jìn)行相應(yīng)處理。因?yàn)槿斯ぶ悄艿玫降钠珣B(tài)的招聘決策,我們感到震驚,但生活在人類偏見主導(dǎo)的世界也可以很好??纯磥嗰R遜吧,批評(píng)他們的招聘算法有失偏頗的呼聲忽視了壓倒性的證據(jù),即目前大多數(shù)組織中人力驅(qū)動(dòng)的招聘情況是不可避免的更加糟糕。這相當(dāng)于表達(dá)了對(duì)無人駕駛汽車死亡事件的關(guān)注超過了每年120萬人由于車輛缺陷、駕駛員注意力分散和酒駕而造成的交通死亡。
事實(shí)上,相比于影響激勵(lì)招聘者和招聘經(jīng)理,人工智能系統(tǒng)有更好的能力可以保證準(zhǔn)確性和公平性。人類擅長(zhǎng)學(xué)習(xí)但不擅長(zhǎng)忘記。使我們產(chǎn)生偏見的認(rèn)知機(jī)制,往往也是我們?cè)谌粘I钪杏脕砩娴墓ぞ摺_@個(gè)世界太復(fù)雜了,我們無法一直有邏輯地、有意識(shí)地進(jìn)行處理;如果我們這樣做了,我們將被信息過載所淹沒,無法做出簡(jiǎn)單的決定,比如買一杯咖啡(畢竟,如果我們不認(rèn)識(shí)咖啡師,我們?yōu)槭裁匆湃嗡??)。這就是為什么更容易確保我們的數(shù)據(jù)和訓(xùn)練集沒有偏見,而不是改變Sam或Sally的行為,對(duì)于一個(gè)人,我們既不能消除偏見,也不能真正何獲取影響他們決策的變量的實(shí)際輸出。從本質(zhì)上講,分析人工智能算法比理解和改變?nèi)祟愃季S更容易。
為此,在任何階段,使用人工智能進(jìn)行人才管理的組織都應(yīng)該從以下步驟開始。
教育候選人并獲得他們的許可。 向潛在的雇員進(jìn)行詢問,向公司提供他們的個(gè)人數(shù)據(jù),這些數(shù)據(jù)將被分析、存儲(chǔ),應(yīng)用于HR決策的人工智能系統(tǒng)。準(zhǔn)備向他們解釋關(guān)于what、who、how、why的問題。因?yàn)橐蕾嚭谙淠P偷娜斯ぶ悄芟到y(tǒng)是不道德的。如果一個(gè)候選人具備與成功相關(guān)的屬性,那么不僅需要理解為什么,還需要解釋因果關(guān)系。簡(jiǎn)單來說,人工智能系統(tǒng)應(yīng)該設(shè)計(jì)為用于預(yù)測(cè)和解釋因果關(guān)系的,而不僅是發(fā)現(xiàn)相關(guān)性。另外你應(yīng)該保證候選人的匿名性,以保護(hù)個(gè)人數(shù)據(jù)并遵守相關(guān)法律規(guī)定。
投資于優(yōu)化公平性和準(zhǔn)確性的系統(tǒng)。 歷史上,組織心理學(xué)家曾指出,當(dāng)候選人的評(píng)估模型為公平性而優(yōu)化時(shí),準(zhǔn)確性會(huì)下降。例如,大量的學(xué)術(shù)研究表明,認(rèn)知能力測(cè)試和工作表現(xiàn)一致,特別是在高復(fù)雜度的工作中。這種分布對(duì)任職人數(shù)少,尤其是社會(huì)經(jīng)濟(jì)地位低的個(gè)人產(chǎn)生不利影響。也就是說,公司如果想提升多樣性,創(chuàng)造包容文化,那么在雇傭新員工的時(shí)候需要降低對(duì)認(rèn)知測(cè)試的關(guān)注,這樣多元化的應(yīng)聘者在招聘過程中就不會(huì)處于不利地位,這就是所謂的公平性/準(zhǔn)確性權(quán)衡。
但是,這個(gè)權(quán)衡關(guān)系依賴的是半個(gè)世紀(jì)以前的技術(shù),遠(yuǎn)早于人工智能模型的出現(xiàn),而人工智能模型可以用于傳統(tǒng)方法不同的方式對(duì)待數(shù)據(jù)。越來越多的證據(jù)表明人工智能可以通過部署動(dòng)態(tài)的、個(gè)性化的打分算法,克服這個(gè)權(quán)衡關(guān)系,使其對(duì)準(zhǔn)確性和公平性同樣敏感,可以共同實(shí)現(xiàn)最優(yōu)。因此,人工智能的開發(fā)者沒有理由不這么做。此外,由于這些新的系統(tǒng)已經(jīng)存在,我們應(yīng)該質(zhì)疑廣泛使用的傳統(tǒng)認(rèn)知評(píng)估(對(duì)少數(shù)群體產(chǎn)生不利影響),在沒有偏見緩解的方式下是否應(yīng)該繼續(xù)存在。
開發(fā)開源系統(tǒng)和第三方評(píng)審。 通過允許其他人評(píng)估這個(gè)用于分析的工具,讓公司和開發(fā)人員負(fù)起責(zé)任。一個(gè)解決方案是開源非專利,但關(guān)鍵部分的人工智能技術(shù)由公司所有。對(duì)于專有組件,公司可以利用由該領(lǐng)域可靠專家進(jìn)行的第三方評(píng)審向公眾展示其如何減輕偏見。
遵守與傳統(tǒng)招聘同樣的數(shù)據(jù)收集、應(yīng)用過程中的法律。人工智能系統(tǒng)不應(yīng)使用因法律或道德原因而不被允許收集或包含在傳統(tǒng)招聘流程中的任何數(shù)據(jù)。不得輸入有關(guān)身體、精神或情緒狀況、基因信息以及藥物使用或?yàn)E用的私人信息。
如果組織解決了這些問題,我們相信,道德的人工智能不僅可以減少在招聘方面的偏見,而且還可以增強(qiáng)英才管理,使人才、努力和員工成功之間的聯(lián)系遠(yuǎn)遠(yuǎn)大于過去,從而大大改善組織。此外,這將有利于全球經(jīng)濟(jì)。一旦我們減少偏見,我們的候選人池將不限于員工推薦和常春藤聯(lián)盟畢業(yè)生。來自更廣泛社會(huì)經(jīng)濟(jì)背景的人將有更多機(jī)會(huì)獲得更好的工作——這有助于創(chuàng)造平衡,并開始彌補(bǔ)階級(jí)分歧。
然而,要實(shí)現(xiàn)上述目標(biāo),企業(yè)需要做出正確的投資,不僅是在尖端人工智能技術(shù)方面,而且(尤其是)在人類專業(yè)知識(shí)方面——這些人懂得如何利用這些新技術(shù)提供的優(yōu)勢(shì),同時(shí)最大限度地減少潛在的風(fēng)險(xiǎn)和缺點(diǎn)。 在任何領(lǐng)域,人工智能和人類智慧的結(jié)合都有可能產(chǎn)生比沒有人工智能更好的結(jié)果。道德人工智能應(yīng)該被視為我們可以用來對(duì)抗自己偏見的工具之一,而不是最終的靈丹妙藥。