【圖解】總是花很多時間查詢法規?教人資4步驟用ChatGPT打造AI法律顧問!
【圖解】總是花很多時間查詢法規?教人資4步驟用ChatGPT打造AI法律顧問!

人資領域非常廣泛,儘管職場習慣上會用「情理法」的順序處理事情,相關的法規也非常多,一不小心就會踩到紅線,甚至還會躍上新聞版面。舉例來說,光是招募就涉及就業服務法、性別工作平等法、身心障礙者權益保障法。而處理人事決策與爭端時,也常會碰上民法、勞動基準法、勞工保險條例、全民健康保險法等數十個相關的法律與規範。

對於大型公司來說,相關法律問題可以請教內部法務人員或向律師事務所諮詢,但更多時候人資會選擇先自行Google或是自己找資料初步確認工作程序是否符合法律規範。

然而,終究人資的專業不是在於法律。在這個AI時代中,OpenAI又如火如荼地推出ChatGPT-4o,人資團隊能怎麼利用AI?又要注意些什麼呢?

首先,我們先談談前車之鑑。自從像是ChatGPT這樣的AI工具出現後,也有人會透過ChatGPT來查詢相關法規,但這卻會引起很高的潛在風險 – AI 幻覺 (AI hallucinations) 問題。

針對AI幻覺的成因稍作解釋,ChatGPT 背後的技術基礎是大型語言模型(Large Language Model,LLM)。大家可以將它理解成,開發者用大量各領域的文字資料,讓AI模型去學習出其中的通用語言模式。之後我們可以使用這個大型語言模型來做生成內容、回答問題、總結文章、翻譯語言等工作。

如果我們直接用現成的生成式模型(如ChatGPT、Gemini等)詢問台灣在地的法規問題,有哪些原因可能會導致AI幻覺問題發生呢?

  1. 資料不即時:大型語言模型會收集特定時間點之前的資料進行訓練,儘管先前模型在訓練時有收錄台灣的法律,但無法確認法條是否已更新到最新。

  2. 大型語言模型的生成性質:大型語言模型不單純只會從訓練資料中複製文字,也會創造新的文字內容,導致回覆夾帶許多不存在的法條或判例。

  3. 內容的產生基於機率而非正確性:大型語言模型生成的內容是基於計算後認為這是最常出現的形式,而非絕對正確的內容。

當AI幻覺問題發生在法律相關的產業中時,往往會造成更大的風險。根據紐約時報報導,美國男子Roberto Mata控告Avianca航空公司的推車讓他膝蓋受傷,他的律師Steven A. Schwartz提交的案件摘要中,引用了6項不同航空公司的相關判決。但最終發覺這些案例都是ChatGPT捏造的,而律師的解釋是,他不知道ChatGPT產生的內容可能是捏造的。這樣的類似案例陸續在美國、加拿大、英國都陸續發生。

又或是常見到ChatGPT給出一些似是而非,且無法根據台灣的法律條文進行回答。譬如,先從人資社團中挑選3個大家問的問題來請教ChatGPT,例如「新同仁入職5個月工作表現不佳,我可以直接解雇嗎?還是需要進行PIP績效改善計畫?需要付資遣費嗎?」、「因為擔心新進女員工未來會請育嬰假,所以先詢問他過往的育嬰假紀錄,請問這樣有違法嗎?」、「請問醫院是否有規定,需要錄用具有就業能力的身心障礙人數?」等,得到的雖然答案看起來都很有道理,但也很難藉此做出判斷。

圖一.jpg
圖/ 自有

對人資而言,一方面又希望擁抱AI加速效率,但一方面又會害怕AI幻覺問題帶來的風險,有沒有什麼解決方案呢?

要排除AI幻覺方法有百百種,最常見為RAG(檢索增強生成)的方式製作客製化Chatbot。本篇我們主要會以no-code的方式,為人資團隊介紹如何透過OpenAI的GPTs(須使用ChatGPT付費版),依循RAG(檢索增強生成)的概念為人資打造入門的AI法律顧問。至於何謂RAG(檢索增強生成),說明則放在文章的最下方。

用GPTs為人資打造AI法律顧問 - 步驟教學

步驟一:盤點與下載法規資料

首先我們在台灣全國法規資料庫,搜尋並下載相關法條,因為人資領域的法律非常多,我們這邊就先下載幾部法條:性別平等工作法、身心障礙者權益保障法、勞動基準法、就業服務法,指定下載成「pdf」格式。

圖二.jpg
圖/ 自有

步驟二:自建GPT、上傳法條知識庫

進入ChatGPT網頁,點選「探索GPT」進如頁面(須為付費版),點選右上角的「建立」,開始建立自己的PTP。

圖三.jpg
圖/ 自有

在配置選項頁面中,依序填入名稱(歡迎自由發揮)、說明、指令;其中指令的部分可以輸入「你是一個台灣人力資源相關法規的助手,所有回答請依據上傳的法律檔案來回答,並且要明確回答出是引述自哪一個法律,以及第幾條法律內容。如果法條檔案中查不到,就回答資料中查不到相關資訊。你只回答人資法律相關問題,如果非法律問題請說你無法回答。」

接著,上傳前一個步驟下載好的法規pdf檔案,上傳順序並不會有差異。

在功能得欄位上,取消「網頁瀏覽」避免ChatGPT上網搜尋不必要的資訊,也取消暫時用不上的「生成 DALL·E 圖像」與「程式碼執行器」等。

圖四.jpg
圖/ 自有

步驟三:實測AI法律顧問效果

完成之後,人資就可以在一旁的預覽進行測試,我們一樣可以輸入之前示範的三個人資社團常見的問題觀察效果與差異,是不是變得有憑有據了呢?

圖五.jpg
圖/ 自有

你會發現,回答有明顯的差異。三個回答皆直接帶出明確的法條,並且回頭去檢查法條確認引用都是正確的。

步驟四:正式發布AI法律顧問

發布這個GPT(AI法律顧問),不論是只給自己使用、分享給同事,或是發布到GPT Store都可以哦!

用GPTs為人資打造法AI律顧問 - 實作小結

若用一句話解釋RAG(檢索增強生成)之於 LLM (大型語言模型)的差異,就像是「Open book考試」和「Closed Book考試」。

Closed Book考試需要先把要考的東西記起來,現場不能參考其他資料作答,如同LLM會一次念完大量資料與訓練,但訓練之後資料就停止更新了。而Open Book考試則如同可以隨時打開課本找資料,綜合判斷後再回答問題,RAG(檢索增強生成)的概念就是一個可以即時查詢正確資料的LLM。

透過ChatGPT建立AI顧問是一種方式,但不免仍有許多限制,例如ChatGPT對於上傳檔案的數量和尺寸都有限制,或是對於檔案中資訊的時間性無法加強處理,所以人資可能需要針對自身需求與法律面向,建立多個的GPT機器人來儲存不同面向的法律知識庫。此外,透過Prompt調整的回答還是會有上限,有時候還是多少會出現一些不如預期的回答。

整體而言,RAG(檢索增強生成)可以降低大型語言模型的AI幻覺問題,並且透過GPT實作的成本比起像是重新訓練模型或是Fine-tuned模型都來得低。所以當今天使用情境對於回答的正確性要求比較高,而不希望回答有太多創意時,可以優先參考RAG技術。

雖然AI不是萬靈丹,但只要充分理解AI技術的限制和調整辦法,絕對可以讓人資工作事半功倍。然而,這樣的AI顧問適合協助人資進行快速的法條檢索與查核,在處理人事爭端的時候請務必要尋求專業的律師諮詢,避免造成紛爭哦!

科技人資進階班:RAG(檢索增強生成) 到底是什麼?

在解釋 RAG(檢索增強生成) 之前,先理解一般LLM(大型語言模型)的架構,大型語言模型會透過大量不同領域的文本資料做訓練,但一經模型訓練完成後,內建的資料就不再更新了,大型語言模型也不會針對特定領域做優化。

圖六.jpg
圖/ 自有

簡單理解RAG(檢索增強生成)是透過外部提供大型語言模型特定資料,來加強其回答能力的技術。

當使用者問問題時,問題都會優先拿去特定的資料中做搜尋,之後抓出相關資料後,再混合大型語言模型原有的能力來回答問題,透過這樣的方式增加正確性,也降低 AI幻覺的問題。優點就是可以隨時動態新增資料,確保資料都是最新的。

圖七.jpg
圖/ 自有

考量到ChatGPT與GPT的限制,如果已經確定使用更進階的RAG(檢索增強生成)技術打造AI法律顧問,建議可以從AWS或是GCP這種大廠的解決方案開始嘗試,好處是有較多人已經用過,易獲得較完整的服務;或是可以從較多人使用的Framework如LangChain做嘗試,皆屬於相對簡單的方式。

延伸閱讀:【觀點】幫人資省下大把時間!善用no code就能自動管理履歷,步驟一文看懂

責任編輯:黃若彤

關鍵字: #ChatGPT
往下滑看下一篇文章
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路

「代理式 AI 」(Agentic AI)的創新服務正在重新塑造企業對AI的想像:成為內部實際運行的數位員工,提升關鍵工作流程的效率。代理式AI的技術應用清楚指向一個核心趨勢:2025 年是 AI 邁向「代理式 AI」的起點,讓 AI 擁有決策自主權的技術轉型關鍵,2026 年這股浪潮將持續擴大並邁向規模化部署。

面對這股 AI Agent 浪潮,企業如何加速落地成為關鍵,博弘雲端以雲端與數據整合實力,結合零售、金融等產業經驗,提出 AI 系統整合商定位,協助企業從規劃、導入到維運,降低試錯風險,成為企業佈局 AI 的關鍵夥伴。

避開 AI 轉型冤枉路,企業該如何走對第一步?

博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題、生成內容的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工,應用場景也從單一任務延伸至多代理協作(Multi-Agent)模式。

「儘管 AI 前景看好,但這條導入之路並非一帆風順。」博弘雲端技術維運中心副總經理暨技術長宋青雲綜合多份市場調查報告指出,到了 2028 年,高達 70% 的重複性工作將被 AI 取代,但同時也有約 40% 的生成式 AI 專案面臨失敗風險;關鍵原因在於,企業常常低估了導入 GenAI 的整體難度——挑戰不僅來自 AI 相關技術的快速更迭,更涉及流程變革與人員適應。

2-RD096270.jpg
博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工。面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時加速 AI 落地。
圖/ 數位時代

正因如此,企業在導入 AI 時,其實需要外部專業夥伴的協助,而博弘雲端不僅擁有導入 AI 應用所需的完整技術能力,涵蓋數據、雲端、應用開發、資安防禦與維運,可以一站式滿足企業需求,更能使企業在 AI 轉型過程中少走冤枉路。

宋青雲表示,許多企業在導入 AI 時,往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。

轉換率提升 50% 的關鍵:HAPPY GO 的 AI 落地實戰路徑

博弘雲端這套導入方法論,並非紙上談兵,而是已在多個實際場域中驗證成效;鼎鼎聯合行銷的 HAPPY GO 會員平台的 AI 轉型歷程,正是其最具代表性的案例之一。陳亭竹說明,HAPPY GO 過去曾面臨AI 落地應用的考驗:會員資料散落在不同部門與系統中,無法整合成完整的會員輪廓,亦難以對會員進行精準貼標與分眾行銷。

為此,博弘雲端先協助 HAPPY GO 進行會員資料的邏輯化與規格化,完成建置數據中台後,再依業務情境評估適合的 AI 模型,並且減少人工貼標的時間,逐步發展精準行銷、零售 MLOps(Machine Learning Operations,模型開發與維運管理)平台等 AI 應用。在穩固的數據基礎下,AI 應用成效也開始一一浮現:首先是 AI 市場調查應用,讓資料彙整與分析效率提升約 80%;透過 AI 個性化推薦機制,廣告點擊轉換率提升 50%。

3-RD096215.jpg
左、右為博弘雲端事業中心副總經理陳亭竹及技術維運中心副總經理暨技術長宋青雲。宋青雲分享企業導入案例,許多企業往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。
圖/ 數位時代

整合 Databricks 與雲端服務,打造彈性高效的數據平台

在協助鼎鼎聯合行銷與其他客戶的實務經驗中,博弘雲端發現,底層數據架構是真正影響 AI 落地速度的關鍵之一,因與 Databricks 合作協助企業打造更具彈性與擴充性的數據平台,作為 AI 長期發展的基礎。

Databricks 以分散式資料處理框架(Apache Spark)為核心,能同時整合結構化與非結構化資料,並支援分散式資料處理、機器學習與進階分析等多元工作負載,讓企業免於在多個平台間反覆搬移資料,省下大量重複開發與系統整合的時間,從而加速 AI 應用從概念驗證、使用者驗收測試(UAT),一路推進到正式上線(Production)的過程,還能確保資料治理策略的一致性,有助於降低資料外洩與合規風險;此對於金融等高度重視資安與法規遵循的產業而言,更顯關鍵。

陳亭竹認為,Databricks 是企業在擴展 AI 應用時「進可攻、退可守」的重要選項。企業可將數據收納在雲端平台,當需要啟動新型 AI 或 Agent 專案時,再切換至 Databricks 進行開發與部署,待服務趨於穩定後,再轉回雲端平台,不僅兼顧開發效率與成本控管,也讓數據平台真正成為 AI 持續放大價值的關鍵基礎。

企業強化 AI 資安防禦的三個維度

隨著 AI 與 Agent 應用逐步深入企業核心流程,資訊安全與治理的重要性也隨之同步提升。對此,宋青雲提出建立完整 AI 資安防禦體系的 3 個維度。第一是資料治理層,企業在導入 AI 應用初期,就應做好資料分級與建立資料治理政策(Policy),明確定義高風險與隱私資料的使用邊界,並規範 AI Agent「能看什麼、說什麼、做什麼」,防止 AI 因執行錯誤而造成的資安風險。

第二是權限管理層,當 AI Agent 角色升級為數位員工時,企業也須比照人員管理方式為其設定明確的職務角色與權限範圍,包括可存取的資料類型與可執行的操作行為,防止因權限過大,讓 AI 成為新的資安破口。

第三為技術應用層,除了導入多重身份驗證、DLP 防制資料外洩、定期修補應用程式漏洞等既有資安防禦措施外,還需導入專為生成式 AI 設計的防禦機制,對 AI 的輸入指令與輸出內容進行雙向管控,降低指令注入攻擊(Prompt Injection)或惡意內容傳遞的風險。

4-RD096303.jpg
博弘雲端技術維運中心副總經理暨技術長宋青雲進一步說明「AI 應用下的資安考驗」,透過完善治理政策與角色權限,並設立專為生成式 AI 設計的防禦機制,降低 AI 安全隱私外洩的風險。
圖/ 數位時代

此外,博弘雲端也透過 MSSP 資安維運託管服務,從底層的 WAF、防火牆與入侵偵測,到針對 AI 模型特有弱點的持續掃描,提供 7×24 不間斷且即時的監控與防護。不僅能在系統出現漏洞時主動識別並修補漏洞,更可以即時監控活動,快速辨識潛在威脅。不僅如此,也能因應法規對 AI 可解釋性與可稽核性的要求,保留完整操作與決策紀錄,協助企業因應法規審查。

「AI Agent 已成為企業未來發展的必然方向,」陳亭竹強調,面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時,加速 AI 落地。在這波變革浪潮中,博弘雲端不只是提供雲端服務技術的領航家,更是企業推動 AI 轉型的策略戰友。透過深厚的雲端與數據技術實力、跨產業的AI導入實務經驗,以及完善的資安維運託管服務,博弘雲端將持續協助企業把數據轉化為行動力,在 AI Agent 時代助企業實踐永續穩健的 AI 落地應用。

>>掌握AI 應用的新契機,立即聯繫博弘雲端專業顧問

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓