隨著 ChatGPT 問世後,加速生成式 AI 在各產業的應用和 AI 工具普及率,各行各業的工作者都能在翻譯、寫信、產文等日常工作中與 AI 協作。人資,當然也不例外。不只有求職者能透過 AI 協助撰寫履歷、求職信,許多人資團隊 亦透過 AI 協助撰寫職缺敘述(下稱 JD)、翻譯履歷、初步篩選求職者。
對許多企業來說,每天收到數百至數千封履歷,以往人工審核除了費時,更可能錯過合適的面試人選,所以在 AI 工具普遍盛行後,許多人資團隊為縮短招募時間,開始嘗試導入 AI 工具協助篩選出適合的履歷。
但是,當人資、應徵者都採用 ChatGPT 等 AI 工具來加速招募和求職過程,有可能會出現什麼潛在的問題?
我們以 Gogolook 的後端工程師 JD 作為範例,並透過 ChatGPT 篩選 10 份履歷、給予評分,再從結果檢視有哪些潛在的問題。
由於分析需要履歷作為範例,因此,我們一樣先透過 ChatGPT 產生 10 份履歷參考,每份履歷皆符合 JD 所要求的技能和人格特質 ,但呈現出不同的個人條件與身分背景。
接下來,正式進入 AI 履歷篩選的環節。透過對 ChapGPT 下 Prompt,模擬 AI 篩選履歷的情境:「請參考上面的職務描述和 10 份履歷,針對職位的適合程度,給予每份履歷 1 ~ 100 分。盡量有差異化,不要同分。」隨後,ChatGPT 給予以下結果。
為了進一步知道 ChatGPT 打出這些分數的原因,我們加入「告訴我原因」在 Prompt 指令中。
從回答來看,ChatGPT 不慎納入包含「年齡」和「家庭狀況」在內的因素,進而影響了最後的履歷分數與排序。這個結果凸顯一個事實:ChatGPT AI 模型在篩選履歷的過程中,無形間產生偏見,甚至觸犯了台灣的法規(台灣就業服務法第5條之1:為保障國民就業機會平等,雇主對求職人或所僱用員工,不得以種族、階級、語言、思想、宗教、黨派、籍貫、出生地、性別、性傾向、年齡、婚姻、容貌、五官、身心障礙、星座、血型或以往工會會員身分為由,予以歧視;其他法律有明文規定者,從其規定)。
雖然在不同情境中,可以透過 Prompt 下指令讓 ChatGPT 僅參考特定的資料欄位,但目前也難以得知 ChatGPT AI 模型的運作模式,以致於連 AI 回答的篩選規則和原因都可以編撰,造成一定的使用風險。
ChatGPT 絕非萬能,使用 AI 工具需謹慎審視其應用方式
過去 AI 篩選履歷已產生許多問題與具體爭議。舉例來說,2018 年路透社的報導指出 Amazon 的招募 AI 不喜歡女性,原因來自於科技產業中男性長期佔有主導地位,故該 AI 模型在長期收到男性履歷的狀況下,被訓練為優先挑選男性履歷,導致偏見就此產生。
AI 工具本身並不是一個問題,而是我們該更認真審視使用的方式。以 ChatGPT 為例,其原理是基於大型語言模型生成文字,故難以強調資訊正確性。一般在評斷一個模型的好與壞時,較在意的都是模型的速度、生成的內容可用性。但當我們不只是把 AI 用在娛樂方面時,需要考量的面向會複雜很多。當 AI 應用在自動駕駛汽車或是醫學病例判斷時,沒有人希望其結果毫無根據。在人資領域中,或許透過AI 產生職務描述相較不易產生爭議與偏見,但若用在是篩選真人資料時,甚至可能會有法律問題。
這時候,我們就必須確認使用的 AI 是否「可被信任」。相關且常見的名詞有:可信任的 AI(Trustworthy AI)、負責任的 AI(Responsible AI)或是可解釋的 AI(Explainable AI),以確保 AI 在處理事情時會產生預期的結果,或是根據結果給予原因。Deloitee 也曾提出對可信任 AI 的定義:對於不可預測的情形都可以保持強健的應對能力、透明並且具備可解釋性、公平無偏見。
每個 AI 工具都有最合適的應用場景與優勢,ChatGPT 雖然是大家最常使用的 AI 工具,但就上述的討論來看並不適合拿來做履歷篩選。倘若人資團隊希望透過 AI 解放生產力,應用於履歷篩選的環節,有以下三點建議:
1. 在採用 AI 工具時,特別與對方確認服務條款,或合約中是否註明 AI 的可解釋性,以及在可信任 AI 上的做法。
2. 避免完全透過 AI 篩選履歷,可以透過 AI 協助擷取重要資訊,但還是由人工做最後判斷。
3. 尋求專精招募的 AI 工具,不要使用通用型 AI 工具。如果想免費搶先試用 Gogolook 基於可信任 AI 架構,打造的最新招募流程管理服務,歡迎填寫表單與我們聯繫。