近年來,為降低招聘成本,提高招聘效率,AI面試被不少公司引入招聘面試環(huán)節(jié),成為簡歷初篩后了解求職者的新方式。求職者學習研究面試技巧的熱度不斷提高,同時AI面試官冷酷機械、缺乏互動引發(fā)“吐槽”,部分求職者對AI面試的效果表示懷疑。(10月30日《工人日報》)
如今社會已進入數(shù)據(jù)時代,許多企業(yè)踏上了數(shù)字化轉型之路,致力于實現(xiàn)“AI+企業(yè)”的模式。在招聘方面也不例外,AI算法正被越來越多地應用于求職面試中。根據(jù)工業(yè)組織心理學的研究,在HR評估求職者時,結構化面試可以比非結構化面試產生更有效的結果。結構化面試就是讓求職者在面試過程中回答一系列固定的問題。因此,AI算法主要應用于結構化面試,這個過程不僅可以大幅提升面試效率,更重要的是AI“對事不對人”,能夠以統(tǒng)一標準評判求職者,力求公正客觀。
然而,隨著部分企業(yè)“AI+招聘”模式的推廣,“槽點”也越來越多。一方面,在面試時,求職者基本處于單向溝通的狀態(tài),只能對AI提出的問題進行機械反饋;另一方面,AI對求職者價值觀、個性、心理承受能力等內隱性強的特點,缺乏更精細的判斷標準。譬如,有些年輕人對升職、加薪并沒有強烈的動機,但他們十分追逐工作中自己創(chuàng)意、想法的實現(xiàn)。像這樣具有“張力”的案例,AI有可能對其判斷失誤。

此外,在AI面前,我們都是赤裸的“工具人”,AI算法隱含的倫理問題不容忽視。首先,AI能否守護好求職者的隱私,即信息安全問題,這值得注意。如果信息保護措施不健全,那么AI有可能成為信息犯罪的憑借,盜用他人信息、侵犯他人權益。其次,算法自身也有“偏見”,亞馬遜機器學習專家曾發(fā)現(xiàn)他們的AI面試官在篩選簡歷階段,存在“重男輕女”的明顯傾向。造成這一問題的原因是人工智能訓練樣本的問題。在開發(fā)崗位識別模型的過程中,亞馬遜輸入的是過去10年的簡歷數(shù)據(jù)庫,其中大部分求職者為男性,女性相關數(shù)據(jù)太少。因此AI誤以為沒有特定關鍵詞的女性簡歷不那么重要,從而給予了較差的推薦評價。
最后,AI面試官的算法一旦被“破譯”,或者成了某種固定標準被奉為圭臬,最終尷尬的是用人單位。既然AI有固定標準和程序,那也就意味著求職者如果事先進行一番攻略,也能夠按照固定套路進行練習,采用流水線式的話術、八顆牙式微笑通過篩選。隨著樣本的迭代,如此套路也許會成為AI面試官的經(jīng)典“模板”,掉入算法陷阱,最終受困的是用人單位。