【觀點】律師只要會背法條嗎?法律的「價值判斷」,ChatGPT能取代嗎?
【觀點】律師只要會背法條嗎?法律的「價值判斷」,ChatGPT能取代嗎?

(觀點文章呈現多元意見,不代表《數位時代》的立場)

2022年連續出現多個令世人驚豔的AI應用,MidJourney使不具備繪圖能力的人,可以透過文字的表達和想像,創造出令人眼睛為之一亮的圖片;而Chat GPT出現,則是對於文字表達和回應問題上,讓人讚嘆更是翻譯、寫信、寫程式等各式各樣的問題都可以問,再加上可以說人話的回答;甚至到了2023年,我常用的筆記軟體Notion也推出了AI的應用,協助你點子發想事先打好草稿等等,大大省下了你我在以前在搜尋、整理所花費的時間。

因此,許多人開始想像前次AlphaGO對於圍棋界帶來的影響,許多人開始想像,是否會像衝擊圍棋界那般,開始對於文字工作者以及認知上的專業人士起到影響?

其中最常被提到的不外乎就是律師、會計師、醫師等職業。筆者經歷過律師工作三年,帶著這樣的想法實際測試Chat GPT後,對其回應的表現感到驚艷,但若要取代法律專業,我想還有許多的問題需要克服,甚至可以說是「難以解決」。

但直接下結論似乎太過空泛,不如我們來探討,這種「取代言論」背後的思考過程是什麼?若真要取代,必須得克服什麼的困難,來使AI成就這件事?探究其思考「假設」的本質,才能知道是如何得出這樣的結論。

ChatGPT
ChatGPT的問世,帶來前所未見的強大運算功能,卻也可能衝擊社會產業結構。
圖/ YouTube Blake Ridder channel

為什麼都說會被取代?

在AI取代職業排行榜上,許多網路論述往往都會出現律師這個職業。而這種論點通常認為,具備以下三個特徵的工作,將很快被機器學習的模型取代:

(1) 專業人員在訓練養成時,需要記憶大量的知識,而工作時仰賴過去的資料庫,來進行知識分析或判斷,並且這些分析或處理需要持續的練習。

(2) 訓練養成過程中,有所謂明確偏好基準,且有大量前例可以參考。

(3) 人類本來就具備的能力,依據這些資料庫和結果的判斷,需要訓練很久才會變成專家的工作

如果根據這樣的思考,職業棋士就吻合這三種特色,因此AI表現對於傳統棋士的訓練就會帶來極大的改變,甚至打敗知名職業棋士,甚而現在被用於訓練棋手思考及對局。

alpha go
AlphaGo Lee(左)與李世乭(右)對弈轉播畫面。
圖/ gogameguru.com

那麼法律專業,真的可能被取代嗎?

若上述思想所「假想」的法律工作重點,在於記憶大量的知識和案例,並且仰賴這樣的資料庫來思考,針對自己遇到的案例進行分析,套用到過去的資料庫來思考說,會比較偏向哪樣的結果,從而作出相關的法律見解分析和適用,那麼律師確實屬於會於未來被AI所取代掉的職業。

但這樣的思考,卻過度的簡化法律專業訓練過程和法律實務工作的特性,並存在許多未思考及假設上的誤解:

誤解一、法律靠記憶背誦

法律專業在訓練過程中,如在大學學習時期,確實需要記憶大量的專有名詞,以及一些經過長久討論被特化的概念名詞,如何謂債權行為、物權行為或是故意、過失的概念以及了解法條的構成要件,以理解說符合法條狀況下需要有怎樣的要件,以及符合後產生的法律效果。

這部分其實就存在以下問題:

A. 誤以為法律專業僅是「知識的堆疊資料庫」(就像許多律政劇的法律天才,就是很會背法條的人),但是法律訓練過程中背誦的目的是理解專有名詞,專有名詞的目的是在思考時能夠細分概念,並且能夠簡化溝通、增進思考的效率,因此若能記住相關要件或是曾經的案例,當然能夠加速思考過程,並能得出結論。

但是法律訓練過程中,真正重要的則是「思考過程」,因為價值衡量上的不同,是可以得出不同結論的**(如交易安全和善意第三人保護,在特定案件上究竟應該著重哪邊?),畢竟現實中的法律我們是可以查法條、查判決見解的。

B. 除了實體個案上的適用外得出法律結論前,法律還必須經過「程序」及「證據」來確定事實,而怎樣的證據證明實體的事實,這件事若非當事人,從第三人的角度則往往需要透過推論來確認事實,而證據如何取得、使用和用來說服,也需要靈活的思考說明。而程序的方面,則是要判斷在一個案件上行政、法院上應該要走什麼程序和某些程序是否妥當或正當等等。

誤解二、訓練養成過程中,有所謂「黑白明確的偏好基準」

這部分誤解即在於所謂的「黑白標準」,這往往是過度簡化生活及社會的邏輯判斷,實際上條文要件可能是個抽象的不確定法律概念,如何謂「國家安全」、「權利濫用」、「注意義務」,為了理解抽象概念往往會有許多案例作為前例引導思考,但縱然有大量案例,這些抽象的概念往往很難有個具體標準,而是在不同環境背景下會有不同的認定。

所以法律價值並非所謂的Yes No問題,且當出現以前不存在東西時,又需要對相關概念做新的詮釋和解釋,如比特幣屬不屬於民法上的物?所謂「公眾得出入之場所」,LINE群算不算?20人的群組跟50人的群組概念上相不相同?

誤解三、法律是根據「資料庫」長久累積訓練的專業

這個假設並無問題,法律專業養成確實需要長久時間的練習。但其練習的除了有黑白標準的衡量概念外(如時間)外,更多時候是透過案例和條文的方式,進行思考的價值判斷練習,當然多數案例下的思考路徑可以得出同樣結論,但有些案例則是會存在價值思考取向不同就有不同的結論。

法律條文和價值訂定,為了規範大多數的狀況或符合所謂人心中的公平正義,其往往會是個抽象的概念,或具備一定的模糊性,如民法第72條:「法律行為,有背於公共秩序或善良風俗者,無效。」這當中就得判斷說「何謂公序良俗?」,不同世代的人對於公序良俗可能會有不同的見解,而這種概念往往也會隨著社會變化而有不同變化(如對於家庭的概念或性的態度等等)。

法律專業需要理解並應用法律條文,但法律條文本身也是需要解釋的,需要考慮情境、文化和道德等因素,這些因素透過機器學習真能模擬嗎?舉例而言,若多數人的價值選擇,透過餵養機器,就將其視為對的,那麼不就將變相成為多數暴力

過去也存在多數人認為合理的狀況如近親結婚、奴隸財產制度,但在現在則不允許或禁止等等。而法律存在價值不正恰恰體現能守護特定價值而保護少數的權利,在特定時刻下更是站在多數對立面,成為少數對抗多數的盾牌,這不正是法律價值判斷的重要性嗎?

《千元律師》(천원짜리변호사,One Dollar Lawyer)劇照。
《千元律師》(천원짜리변호사,One Dollar Lawyer)劇照。
圖/ Disney+

另一方面,縱然是許多人認為比較有明確標準的程序,可能想的是時間、文件標準等可以衡量的東西,但是實際上法律程序上也存在許多價值判斷。舉例而言,假設我們考慮用AI來處理求職者之履歷,直接將人的性別、學歷、語言及設定標準化,以此用來作為人選的遴選標準或是該人接受Offer邀約的可能性判定,這件事作為一種程序性我們可以接受嗎?是否會產生公平正義和人類不應該被標準化的討論?

這件事就曾發生在日本公司用AI工具進行面試候選人的內定接受率,而依據該結果辭退部分候選人,該事件引起日本勞動法和人權概念的討論等等。

而現代法學也相當重視「正當程序」的議題。舉例而言,若刑求可以加速偵查和案件偵破且能導出正確結論,若結論正確不管程序如何,這件事我們就能允許嗎?若允許是否也開放國家權力大門?而開啟潘朵拉盒子,每個人可能都存在被刑求的風險?(如大家最愛的包公案,但是有多少包青天,或是難道包青天就不會犯錯嗎?)這也是何以「正當程序」在現代法治社會中被普遍提倡。

而所謂的價值判斷,通常是因為社會複雜性難以用單一概念涵蓋,或是否某些要件太明確反而形成漏洞而流於文義解釋,在法律上就會以抽象及不確定的概念去體現出來。

法律的「價值判斷難題」包括但不限於以下幾點:

o 倫理道德問題:法律的許多規定和判斷都牽涉到倫理道德的問題,例如安樂死、墮胎等等。

o 公平正義問題:法律必須保障公民的權利和利益,但有時候為了維護公平正義,可能需要犧牲一部分人的權益,例如限制財產權、限制言論自由等等。

o 財產權問題:財產權是一個非常複雜的問題,往往需要考慮到產權歸屬、資源的分配、公共利益等多方面因素。

o 人權問題:人權是法律所關注的一個核心問題,但有時候人權和公共利益之間存在衝突,需要仔細平衡。
甚至是有時較為明確的時效或效力問題,在特定狀況下也存在變通可能性。

所以法律工作很大部份在於透過「正當程序」推導出個案事實,並在這樣的個案上進行「價值判斷」等等,所以若是從律師工作的屬性來說,不單單只是資料整理給答案,還需要進行證據和未來風險的預判,還有如何在具體個案中協助當事人行使權利及預防風險,以及思考價值判斷,並非單純的黑白是非題。

結論:「價值判斷」的重要性,讓律師難以被AI取代

法律工作的專業性並非只是單純的「知識堆疊資料庫」,而是需要進行「價值判斷的思考」,且此價值並非有一明確標準,往往是抽象或模糊,並且概念將會隨著社會演進而持續變化。所以若以深度學習AI的特性來說,AI會比人做得好的部分,即在於大量資料整理和處理,會大大提高法律工作的效率,大大加速機械性工作的處理。

但是,若是從價值判斷的角度來看,AI仍然無法替代人類的判斷。因為人類的價值觀和判斷標準是隨著社會、文化和時間的變化而變化的,而這種變化是非常複雜和不確定的。所以若法律工作者僅作為法匠,只單純作為知識資料庫堆疊別人如何做我就如何做而不思考,那麼確實有很高機率被取代,但若非一個法匠思維,回到法學最核心價值的「思考」,我想仍難以被取代。

ai_法律科技_lawtech
圖/ shutterstock

最後,本文也想留下個問題供思考:若假設有天AI學習真能做到價值判斷,您心中真的可以接受由AI來判定一切或甚而定人生死嗎?真的就客觀公平公正嗎?

關於「AI可否用於價值判斷」的價值判斷問題,就留給各位心中去思辨吧!

或是你也可以問問AI這題?(笑)

責任編輯:錢玉紘

《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。

(觀點文章呈現多元意見,不代表《數位時代》的立場)

本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓