人力資源從業(yè)人員:使用“算法裁員”可撫平愧疚感
2月21日消息,在谷歌大規(guī)模裁員1.2萬人幾天后,數(shù)百名離職員工涌入一個(gè)在線聊天室,對他們突然被裁員的冷酷方式表達(dá)不滿,同時(shí)就管理層是如何決定裁員的問題交換了看法。有人發(fā)帖問道:是不是有個(gè)精心設(shè)計(jì)、不違反任何法律的“無腦算法”選擇了誰該被裁?
本文引用地址:http://butianyuan.cn/article/202302/443528.htm谷歌對此表示,他們的裁員決定“沒有涉及任何算法”。但隨著越來越多的AI工具被應(yīng)用于職場,這些谷歌被裁員工的懷疑似乎并無道理。如今,許多人力資源經(jīng)理使用機(jī)器學(xué)習(xí)軟件分析數(shù)百萬個(gè)與就業(yè)相關(guān)的數(shù)據(jù)點(diǎn),從而得出哪些人可以參加面試、收到offer、晉升或應(yīng)該被留住的建議。
但據(jù)人力資源分析師和勞動(dòng)力專家稱,隨著硅谷的命運(yùn)發(fā)生轉(zhuǎn)變,這些AI工具可能會(huì)幫助處理一項(xiàng)更艱巨的任務(wù),即幫助決定誰將被裁掉。
今年1月份,針對300名美國公司人力資源主管的調(diào)查顯示,98%的人認(rèn)為,軟件和算法將幫助他們在今年做出裁員決定。隨著公司大量裁員,單靠人類很難完成如此繁復(fù)的任務(wù)。自年初以來,美國大公司的裁員人數(shù)已經(jīng)悄悄達(dá)到五位數(shù)。
哈佛商學(xué)院教授約瑟夫·富勒(Joseph Fuller)表示,從科技巨頭到家庭用品公司,大公司經(jīng)常使用AI軟件為“正確的項(xiàng)目”尋找“合適的人”。 這些產(chǎn)品幫助建立了一份“技能清單”,這是一個(gè)關(guān)于員工的強(qiáng)大數(shù)據(jù)庫,可以幫助經(jīng)理們確定擁有何種工作經(jīng)驗(yàn)、證書和技能的人選與不同的崗位匹配。同理,這些工具也可以幫助裁員。
軟件評測網(wǎng)站Capterra的高級人力資源分析師Brian Westfall說,自2008年經(jīng)濟(jì)衰退以來,人力資源部門變得“越來越依賴數(shù)據(jù)”。他補(bǔ)充說,在做出裁員等棘手決定時(shí),求助于算法可能會(huì)幫助經(jīng)理人們撫平愧疚感。
許多公司都在使用分析員工績效數(shù)據(jù)的軟件。在Capterra的調(diào)查中,70%的人力資源經(jīng)理表示,在評估裁員時(shí),績效是最重要的考核因素。Westfall也表示,用于裁員的其他指標(biāo)可能不那么明確。例如,人力資源算法可以計(jì)算出哪些因素會(huì)導(dǎo)致某人有“跳槽風(fēng)險(xiǎn)”,以及更有可能離開公司。
Westfall聲稱,AI的介入也引發(fā)了許多問題。例如,如果某家公司存在歧視問題,有色人種員工離開的比例可能會(huì)更高。但如果算法沒有接受過類似的培訓(xùn),并不了解這種情況,它可能會(huì)認(rèn)為非白人員工的“逃跑風(fēng)險(xiǎn)”更高,并建議裁掉更多有色人種員工?!霸谀撤N程度上,你可以看到滾雪球效應(yīng)出現(xiàn)。你不知道數(shù)據(jù)是如何創(chuàng)建的,或者數(shù)據(jù)是如何受到影響的,而這些因素突然導(dǎo)致了糟糕的決策?!盬estfall說。
使用AI工具的人力資源軟件公司Gloat的副總裁杰夫·施瓦茨(Jeff Schwartz)說,Gloat的客戶沒在使用該公司的軟件創(chuàng)建裁員名單。但他承認(rèn),人力資源主管們在如何做出此類決策方面必須保持透明,包括算法的使用范圍有多廣。他說:“對我們來說,這是一個(gè)學(xué)習(xí)時(shí)刻,我們需要揭開黑匣子的秘密。我們需要了解哪些算法在以哪些方式發(fā)揮作用,我們需要弄清楚人們和算法是如何協(xié)同工作的?!?/p>
勞動(dòng)力專家表示,對軟件的依賴引發(fā)了一場辯論,爭論的焦點(diǎn)是算法在裁員過程中應(yīng)該扮演什么角色,以及雇主應(yīng)該在多大程度上公開裁員背后的原因。Westfall說:“風(fēng)險(xiǎn)在于使用了錯(cuò)誤的數(shù)據(jù),以及根據(jù)算法所說的東西做出決定,然后盲目地跟隨它?!?/p>
但勞工和就業(yè)律師、追蹤人力資源領(lǐng)域進(jìn)步的組織Disrupt HR的成員扎克·邦巴奇(Zack Bombatch)表示,自疫情暴發(fā)以來,人力資源組織已經(jīng)不堪重負(fù),他們將繼續(xù)使用軟件來幫助減輕工作量。
有鑒于此,公司在做裁員決定時(shí),不該讓算法單獨(dú)給出名單,而是需要人類審查其建議,以確保不會(huì)對有色人種、女性或老年員工產(chǎn)生偏見,這些行為都會(huì)引發(fā)訴訟。邦巴奇警告稱:”不要試圖把責(zé)任都推給軟件?!?/p>
評論