近年來,越來越多企業開始在招聘過程中引入人工智能 ( AI ) 技術,借助 AI 提高效率、節省人力。但與此同時,AI 招聘系統的公平性和透明度問題也引發廣泛關注。求職者常懷疑自己是否因 AI 帶有偏見而遭到排斥,卻無從查證。監管部門則憂慮 AI 可能加劇就業歧視,但缺乏監督手段。如何在效率與公平之間尋求平衡,正成爲一大挑戰。
AI 滲透招聘市場
根據數據顯示,目前已有 99% 的财富 500 強企業采用 AI 技術自動過濾求職申請,40% 的公司更打算在今年使用 AI 與潛在人才 " 對話 "。這些企業常會采用預先錄制的視頻問題,由 AI 語音助手向求職者提問,要求他們在規定時間内回答。也有雇主要求求職者在面試環節中完成小遊戲或測試,通過 AI 評估他們的注意力、反應能力等。
甚至有些公司會在正式面試前,就通過 AI 分析求職者在社交媒體上的數字足迹,評估其是否與企業文化相符。這些做法的目的,都是爲了借助 AI 的力量提高招聘效率 , 降低人力和财務成本。
" 電腦說不行 " 難辯解
然而,AI 招聘系統也存在一些潛在的風險和問題。一些研究發現,AI 系統可能會對求職者的口語習慣、社會階層等因素産生負面評價。比如對于說話方式較爲口語化的藍領階層求職者,AI 就可能做出不利評判。
再者,一些遊戲化的 AI 測評環節,可能會排斥視力或手眼反應略有障礙的身心障礙人士。更有研究者擔憂,雇主若将求職者的社會階層、家庭背景等轉化爲 " 數字化指标 ", 可能會激發出無意識中的認知偏見,導緻歧視。
最令人不安的是,很多時候求職者并不知道自己是否遭到 AI 的 " 無心之失 " 評判。一旦被 AI 系統篩選出局,他們收到的往往隻是一封冰冷的拒絕郵件,無從得知落選原因。" 反歧視法主要由投訴驅動,如果應聘者不知道發生了什麽,就沒人抱怨被剝奪了工作機會。" 牛津大學法學教授 Sandra Wachter 說。
監管與透明度需加強
針對這一問題,去年 11 月紐約市政府出台新規:未來任何 AI 招聘系統若沒有每年通過公正性審核,都将被禁止使用。年審将檢查 AI 系統是否存在種族或性别歧視,雇主也必須爲求職者提供人工審核的替代方案。
但這一規定也受到一些質疑。一些人工智能專家和數字權利活動家認爲,這隻是要求 AI 開發商自我證明符合現有的反歧視法要求,并未提出更高的監管标準。而法案對于 " 如何審核偏見 " 的具體要求也十分模糊。
事實上,造成 AI 系統帶有偏見的主因,常常是訓練數據本身存在問題。比如亞馬遜之前就曾停用一款 AI 簡曆掃描工具,因爲發現它會系統性偏向男性求職者。部分原因是該系統的訓練數據集過于依賴該公司現有的男性技術人員比例。
與此類似,如果 AI 系統吸收了某些存在種族或性别差異的行業數據,那麽它産生的結果也将繼承和加劇這些偏見。今年更有研究發現,Facebook 的廣告投放算法也可能帶有性别歧視——男性用戶更容易看到快遞員招聘廣告,而女性用戶則會被推送更多購物類廣告。
這種潛在的算法偏見,很容易在人們意識不到的情況下滋生并永久化。與那些努力消除偏見的公司相比,一些公司之所以更容易出現問題,就是因爲其系統擅長于固化并 " 合理化 " 現有的不合理情況。
因此,要杜絕 AI 系統帶來的就業歧視風險,确實需要加強監管。與紐約市新規定的目标一緻,相關方面首先需要提高 AI 系統的透明度,讓普通求職者能了解自己是否遭到 AI 評估、AI 是如何評估的,以及評估所依據的數據來源。
其次,需要對 AI 系統進行獨立的年度審核,明确審核的标準和指标,并由第三方權威機構執行,而不隻是開發者的自我評估。很多時候,隻有通過持續審計和監督,才能發現隐藏在算法深處的潛在問題。
除了加強監管,社會各界同樣也應當引導 AI 系統朝着更加包容、多元的方向發展。衆所周知,培養出偏見 AI 的最主要原因,恰恰是訓練數據中長期存在的系統性偏見和代表性失衡。要解決問題的根源,就必須在教育、就業等社會領域中持續改革,創造更加公平的環境。
隻有提高透明度、強化監管,并與消除社會偏見的努力相結合,我們才能防止 AI 帶來的新的就業歧視風險,充分發揮 AI 提高效率的優勢,讓 AI 真正成爲企業和求職者的 " 助手 ",而非無心的 " 傷害者 "。