人資領域非常廣泛,儘管職場習慣上會用「情理法」的順序處理事情,相關的法規也非常多,一不小心就會踩到紅線,甚至還會躍上新聞版面。舉例來說,光是招募就涉及就業服務法、性別工作平等法、身心障礙者權益保障法。而處理人事決策與爭端時,也常會碰上民法、勞動基準法、勞工保險條例、全民健康保險法等數十個相關的法律與規範。
對於大型公司來說,相關法律問題可以請教內部法務人員或向律師事務所諮詢,但更多時候人資會選擇先自行Google或是自己找資料初步確認工作程序是否符合法律規範。
然而,終究人資的專業不是在於法律。在這個AI時代中,OpenAI又如火如荼地推出ChatGPT-4o,人資團隊能怎麼利用AI?又要注意些什麼呢?
首先,我們先談談前車之鑑。自從像是ChatGPT這樣的AI工具出現後,也有人會透過ChatGPT來查詢相關法規,但這卻會引起很高的潛在風險 – AI 幻覺 (AI hallucinations) 問題。
針對AI幻覺的成因稍作解釋,ChatGPT 背後的技術基礎是大型語言模型(Large Language Model,LLM)。大家可以將它理解成,開發者用大量各領域的文字資料,讓AI模型去學習出其中的通用語言模式。之後我們可以使用這個大型語言模型來做生成內容、回答問題、總結文章、翻譯語言等工作。
如果我們直接用現成的生成式模型(如ChatGPT、Gemini等)詢問台灣在地的法規問題,有哪些原因可能會導致AI幻覺問題發生呢?
資料不即時:大型語言模型會收集特定時間點之前的資料進行訓練,儘管先前模型在訓練時有收錄台灣的法律,但無法確認法條是否已更新到最新。
大型語言模型的生成性質:大型語言模型不單純只會從訓練資料中複製文字,也會創造新的文字內容,導致回覆夾帶許多不存在的法條或判例。
內容的產生基於機率而非正確性:大型語言模型生成的內容是基於計算後認為這是最常出現的形式,而非絕對正確的內容。
當AI幻覺問題發生在法律相關的產業中時,往往會造成更大的風險。根據紐約時報報導,美國男子Roberto Mata控告Avianca航空公司的推車讓他膝蓋受傷,他的律師Steven A. Schwartz提交的案件摘要中,引用了6項不同航空公司的相關判決。但最終發覺這些案例都是ChatGPT捏造的,而律師的解釋是,他不知道ChatGPT產生的內容可能是捏造的。這樣的類似案例陸續在美國、加拿大、英國都陸續發生。
又或是常見到ChatGPT給出一些似是而非,且無法根據台灣的法律條文進行回答。譬如,先從人資社團中挑選3個大家問的問題來請教ChatGPT,例如「新同仁入職5個月工作表現不佳,我可以直接解雇嗎?還是需要進行PIP績效改善計畫?需要付資遣費嗎?」、「因為擔心新進女員工未來會請育嬰假,所以先詢問他過往的育嬰假紀錄,請問這樣有違法嗎?」、「請問醫院是否有規定,需要錄用具有就業能力的身心障礙人數?」等,得到的雖然答案看起來都很有道理,但也很難藉此做出判斷。
對人資而言,一方面又希望擁抱AI加速效率,但一方面又會害怕AI幻覺問題帶來的風險,有沒有什麼解決方案呢?
要排除AI幻覺方法有百百種,最常見為RAG(檢索增強生成)的方式製作客製化Chatbot。本篇我們主要會以no-code的方式,為人資團隊介紹如何透過OpenAI的GPTs(須使用ChatGPT付費版),依循RAG(檢索增強生成)的概念為人資打造入門的AI法律顧問。至於何謂RAG(檢索增強生成),說明則放在文章的最下方。
用GPTs為人資打造AI法律顧問 - 步驟教學
步驟一:盤點與下載法規資料
首先我們在台灣全國法規資料庫,搜尋並下載相關法條,因為人資領域的法律非常多,我們這邊就先下載幾部法條:性別平等工作法、身心障礙者權益保障法、勞動基準法、就業服務法,指定下載成「pdf」格式。
步驟二:自建GPT、上傳法條知識庫
進入ChatGPT網頁,點選「探索GPT」進如頁面(須為付費版),點選右上角的「建立」,開始建立自己的PTP。
在配置選項頁面中,依序填入名稱(歡迎自由發揮)、說明、指令;其中指令的部分可以輸入「你是一個台灣人力資源相關法規的助手,所有回答請依據上傳的法律檔案來回答,並且要明確回答出是引述自哪一個法律,以及第幾條法律內容。如果法條檔案中查不到,就回答資料中查不到相關資訊。你只回答人資法律相關問題,如果非法律問題請說你無法回答。」
接著,上傳前一個步驟下載好的法規pdf檔案,上傳順序並不會有差異。
在功能得欄位上,取消「網頁瀏覽」避免ChatGPT上網搜尋不必要的資訊,也取消暫時用不上的「生成 DALL·E 圖像」與「程式碼執行器」等。
步驟三:實測AI法律顧問效果
完成之後,人資就可以在一旁的預覽進行測試,我們一樣可以輸入之前示範的三個人資社團常見的問題觀察效果與差異,是不是變得有憑有據了呢?
你會發現,回答有明顯的差異。三個回答皆直接帶出明確的法條,並且回頭去檢查法條確認引用都是正確的。
步驟四:正式發布AI法律顧問
發布這個GPT(AI法律顧問),不論是只給自己使用、分享給同事,或是發布到GPT Store都可以哦!
用GPTs為人資打造法AI律顧問 - 實作小結
若用一句話解釋RAG(檢索增強生成)之於 LLM (大型語言模型)的差異,就像是「Open book考試」和「Closed Book考試」。
Closed Book考試需要先把要考的東西記起來,現場不能參考其他資料作答,如同LLM會一次念完大量資料與訓練,但訓練之後資料就停止更新了。而Open Book考試則如同可以隨時打開課本找資料,綜合判斷後再回答問題,RAG(檢索增強生成)的概念就是一個可以即時查詢正確資料的LLM。
透過ChatGPT建立AI顧問是一種方式,但不免仍有許多限制,例如ChatGPT對於上傳檔案的數量和尺寸都有限制,或是對於檔案中資訊的時間性無法加強處理,所以人資可能需要針對自身需求與法律面向,建立多個的GPT機器人來儲存不同面向的法律知識庫。此外,透過Prompt調整的回答還是會有上限,有時候還是多少會出現一些不如預期的回答。
整體而言,RAG(檢索增強生成)可以降低大型語言模型的AI幻覺問題,並且透過GPT實作的成本比起像是重新訓練模型或是Fine-tuned模型都來得低。所以當今天使用情境對於回答的正確性要求比較高,而不希望回答有太多創意時,可以優先參考RAG技術。
雖然AI不是萬靈丹,但只要充分理解AI技術的限制和調整辦法,絕對可以讓人資工作事半功倍。然而,這樣的AI顧問適合協助人資進行快速的法條檢索與查核,在處理人事爭端的時候請務必要尋求專業的律師諮詢,避免造成紛爭哦!
科技人資進階班:RAG(檢索增強生成) 到底是什麼?
在解釋 RAG(檢索增強生成) 之前,先理解一般LLM(大型語言模型)的架構,大型語言模型會透過大量不同領域的文本資料做訓練,但一經模型訓練完成後,內建的資料就不再更新了,大型語言模型也不會針對特定領域做優化。
簡單理解RAG(檢索增強生成)是透過外部提供大型語言模型特定資料,來加強其回答能力的技術。
當使用者問問題時,問題都會優先拿去特定的資料中做搜尋,之後抓出相關資料後,再混合大型語言模型原有的能力來回答問題,透過這樣的方式增加正確性,也降低 AI幻覺的問題。優點就是可以隨時動態新增資料,確保資料都是最新的。
考量到ChatGPT與GPT的限制,如果已經確定使用更進階的RAG(檢索增強生成)技術打造AI法律顧問,建議可以從AWS或是GCP這種大廠的解決方案開始嘗試,好處是有較多人已經用過,易獲得較完整的服務;或是可以從較多人使用的Framework如LangChain做嘗試,皆屬於相對簡單的方式。
延伸閱讀:【觀點】幫人資省下大把時間!善用no code就能自動管理履歷,步驟一文看懂
責任編輯:黃若彤