眼下,在企業(yè)招聘過程中,越來越多求職者在面試中面對的不是人類面試官,而是人工智能(AI)面試官。《2023年中國網(wǎng)絡(luò)招聘市場發(fā)展研究報告》的統(tǒng)計顯示,AI視頻面試的應(yīng)用場景已占到31.8%。專業(yè)招聘平臺大力推動人工智能招聘系統(tǒng)研發(fā)和應(yīng)用的背后,是龐大的市場需求。
AI招聘之所以受到青睞,源于它的多種優(yōu)勢。首先是高效,面對成千上萬的簡歷,AI算力比人力的篩選效率高很多。其次是客觀,AI擺脫了人的主觀偏見,對求職者的評價更加中立。最后是低成本,AI招聘節(jié)省了大量的時間、人力和物力成本。在不斷發(fā)展過程中,AI招聘系統(tǒng)越來越智能,從最初的簡歷篩選到人崗匹配,再到AI面試,AI在招聘中能完成的任務(wù)越來越多,實(shí)踐中,最新的AI面試系統(tǒng)已經(jīng)具備了個性化追問功能。
但是,在享受AI招聘帶來的科技紅利同時,還應(yīng)當(dāng)警惕其可能帶來的負(fù)面效應(yīng)。面對智能招聘熱潮必須作出的冷思考是:在科技上有能力做到的,在法律上是否都允許?AI招聘不是法外之地,必須在法律的軌道上運(yùn)行,而這一點(diǎn)在技術(shù)迅猛發(fā)展的背景下常常被忽略。筆者歸納出在現(xiàn)行法律框架下,AI招聘過程中可能存在的法律風(fēng)險,并嘗試探索應(yīng)對之道。
第一,透明度問題。許多求職者不明白,自己為什么被AI打了低分而出局?這背后反映的是算法黑箱問題。AI對求職者作出評價和決策的依據(jù)等算法運(yùn)行機(jī)制應(yīng)透明可釋。招聘者負(fù)有對關(guān)鍵算法進(jìn)行公開的法律義務(wù),以便于求職者理解的方式進(jìn)行解釋。從求職者的角度看,法律已經(jīng)賦予了其算法解釋權(quán),可拿起法律武器積極維護(hù)自身權(quán)益。
第二,公平性問題。AI可能對求職者作出不公正的評價,甚至引發(fā)算法歧視。算法歧視主要源于兩方面因素:一是招聘者在設(shè)計算法時有意植入帶有歧視性的參數(shù),刻意排除某些求職群體;二是數(shù)據(jù)訓(xùn)練或算法設(shè)計本身存在科學(xué)性缺陷。就業(yè)權(quán)是一項基本人權(quán),AI招聘關(guān)系到求職者能否獲得工作,因此招聘算法屬于高風(fēng)險算法。AI招聘系統(tǒng)的設(shè)計者、使用者除了不斷加強(qiáng)數(shù)據(jù)訓(xùn)練和改進(jìn)算法以提升其科學(xué)性之外,還負(fù)有對招聘算法進(jìn)行周期性風(fēng)險評估的法律義務(wù),應(yīng)通過評估發(fā)現(xiàn)并消除歧視性風(fēng)險。對于遭受不公正對待的求職者,可主張反歧視救濟(jì),既有的反歧視法對AI招聘仍然適用。
第三,個人信息與人格尊嚴(yán)保護(hù)問題。AI面試中的人臉識別、語音分析、情感識別等技術(shù)手段的運(yùn)用,不可避免地要大量收集求職者的個人信息,其中包括人臉信息、聲紋信息等敏感個人信息,這些信息的收集處理受到嚴(yán)格的法律限制。招聘者須依據(jù)個人信息保護(hù)法的規(guī)定履行個人信息處理者的義務(wù)。一是對求職者信息的收集必須以明確的招聘目的為限制,不能為其他目的所使用。二是遵循最小化原則,以滿足招聘目的為必要限度,盡可能少收集個人信息,對已收集的信息不能永久保存,應(yīng)在招聘完成后的合理時間銷毀。三是應(yīng)就收集個人信息向求職者履行告知義務(wù)并征得其同意。四是履行個人信息保護(hù)風(fēng)險評估義務(wù)。五是對收集的信息采取脫敏化、去標(biāo)識化、匿名化等保密措施。對在AI面試中被收集的個人信息,求職者依法享有查閱、復(fù)制以及刪除的權(quán)利。除了個人信息保護(hù)之外,AI招聘還可能涉及人格尊嚴(yán)問題。值得關(guān)注的是,根據(jù)新近頒布的歐盟《人工智能法案》,分析雇員情緒的人工智能系統(tǒng)因?qū)儆诓豢山邮艿娘L(fēng)險等級而被禁止,這恰恰是很多AI招聘系統(tǒng)宣稱的先進(jìn)技術(shù)。我國對此雖尚無明確禁止的立法,但是對于AI招聘可能給人格權(quán)帶來的挑戰(zhàn)應(yīng)當(dāng)持謹(jǐn)慎態(tài)度。
第四,對AI的人力監(jiān)督問題。在賦予AI招聘功能之后,人類應(yīng)當(dāng)扮演什么角色值得反思。由于AI的局限性可能導(dǎo)致的算法失準(zhǔn)、歧視等風(fēng)險,招聘者不能完全袖手旁觀,而應(yīng)做好AI監(jiān)督者。隨著技術(shù)的升級,AI在招聘中的角色從最初的輔助性工作逐漸向獨(dú)立作出自動化決策的方向發(fā)展。個人信息保護(hù)法第24條規(guī)定,如果一項決定是僅通過自動化決策的方式作出的且對于個人權(quán)益有重大影響,那么個人有權(quán)利拒絕該決定。招聘中的自動化決策影響到勞動者的就業(yè)權(quán),顯然符合該規(guī)定。這意味著,招聘者應(yīng)當(dāng)對AI形成的自動化決策作出人工審查。
AI招聘是技術(shù)發(fā)展的成果,提高了工作效率,但其必須在法律設(shè)定的邊界內(nèi)運(yùn)行,實(shí)際招聘者才應(yīng)是監(jiān)督者和最終決策者。(作者為天津大學(xué)法學(xué)院教授)
(責(zé)任編輯:畢安吉)