【觀點】現在是AI的iPhone時刻,還是哀痛時刻?為何「AI調音師」比詠唱師重要?
【觀點】現在是AI的iPhone時刻,還是哀痛時刻?為何「AI調音師」比詠唱師重要?

生成式AI的崛起,被譽為超越「iPhone高光時刻」的壯舉。2023年5月,生成式AI – ChatGPT正醞釀著另一股科技大潮流,在正式開放使用者註冊後的半年,它以異軍突起的多語言流利對答能力、深入至微的使用者意圖理解能力、以及前瞻的邏輯推理能力,搏出驚人的一擊。

加上行動裝置版本App的及時推出,ChatGPT在資本市場繼續引領一場AI應用情境的熱潮。

延伸閱讀:ChatGPT官方App在台灣上線!安裝量一週內破50萬,有什麼功能和亮點?

生成式AI風生水起!但人工智慧也可能比原子彈更可怕?

但同時,美軍在近期一次模擬測試中,卻傳出為了了解AI無人機的成效。結果AI在過程中採取了「高度無法預期的戰略」,無預警地殺害了它的操作員。雖然此傳聞立即遭到官方否認,但人工智慧的風險無所不在,卻是無可否認的事實。

早在2018年3月,特斯拉執行長馬斯克(Elon Musk)就提出「AI比核彈還要危險」的觀點。無獨有偶,美國國會日前對人工智慧影響的公聽會中,聯邦參議員霍利(Josh Hawley)也警告:「生成式AI的規模宛如網際網路的全球布局,可能釀成類似原子彈的巨大災禍」。

Chatgpt
ChatGPT打響AI市場。
圖/ Canva

ChatGPT推手OpenAI的CEO阿特曼(Sam Altman)亦附和,生成式AI的出現好比「印刷機發明」,能夠改善和創造工作,但他更對AI可能對世界帶來危害深感憂心。

而研究人工智慧的先驅,被視為「人工智慧教父」之一的辛頓(Geoffrey Hinton)在接受國際媒體訪問時更直言,人工智慧給人類帶來的威脅可能比氣候變遷「更加急迫」。

辛頓認為,人類對於氣候變遷,已經找出了減碳的路徑或方向,只要去落實,情況可能會好轉。而關於人工智慧,大家目前根本「置身迷途」。

生成式AI所造成的危機,除了眾所皆知,被用以撰寫駭客網路攻擊程式、挖掘系統漏洞、創作擬真的釣魚郵件,或是如三星集團因使用ChatGPT,而洩漏商業等等層出不窮的資安事件外,更令AI專家與政治人物擔心的是,越來越無法受控的資訊迷霧風暴,充斥真假難辨及資訊污染的網際空間,甚至利用AI的能力,引發新型態的犯罪和道德違規行為。

近期,一位美國律師利用ChatGPT來協助整理開庭所需的參考判決與案例,然而卻被發現這些判決是ChatGPT杜撰的,引起軒然大波,不但律師可能會被懲處,連「司法」這道維護正義的最後一道防線都可能受到ChatGPT的影響。

依據世界經濟論壇 (World Economic Forum, WEF)預測,於2026年時網際網路上可能將有高達90%以上的內容將由人工智慧生成。

除了「詠唱師」,新人工智慧還需要「調音師」

無論政府是否將對科技和AI市場的繁榮展開更深層的監管,邁向數位轉型的企業都必須具備風險意識和自救能力。

在人工智慧商用的新賽道上,企業除了大量招聘資訊工程師,投入各種AI相關的模型或延伸應用開發,更有積極進行數位轉型的企業,開始招募無需科技背景,但年薪號稱逾千萬新台幣的「AI詠唱師」、或「AI溝通師」,他們被定位為一群擅長使用ChatGPT、Midjourney等新AI工具的專家,同時運用商業知識與專業語言,喚醒生成式AI的靈魂,企圖讓人工智慧發揮最大的商業價值與創造最高的生產力。

然而除了一群「詠唱師」外,我們也樂見AI的「調音工程師」新角色,已經在部分AI科技巨擘,及台灣企業出現。

例如,美國有公司成立了致力於開發和部署「當責人工智慧」(Responsible AI)的專門委員會,分別是為技術團隊提供有關如何實作人工智慧風險管理的開發指引,同時與使用者及社會大眾分享人工智慧知識,做到技術知識透明化。

在台灣,我們也看見少數具備前瞻思維的公司,將人工智慧治理引進數位轉型的流程中,開始招聘「AI策略與治理顧問」,負責預防生成式AI商用可能引發的道德和法規問題。

進一步為了避免內部開發與治理人員的同質性,無形中轉化內建為新應用的「AI偏見」,企業需要把更多不同利益群體,例如政策制定者、網路使用者,及外部風險顧問等的觀點,引入AI開發和應用過程,這也是當責人工智慧的當務之急。

避免AI危機引爆的拆彈工程

因為人工智慧帶來的迫切危機,OpenAI的CEO阿特曼在前述的聽證會建議美國政府,考慮成立新的機構核准AI模型、建立一套AI安全準則規範,及要求獨立專家對AI模型進行審核。

此外,在美國已有法官考量到ChatGPT生成的資訊的正確度亟待商榷,也開始求訴訟雙方必須揭露是否使用生成性AI技術準備訴訟文件,也必須提出已通過人類審查內容正確性的證明。

近期美國會計師協會公布的一篇專文中也特別提到,ChatGPT號稱可以運用其巨大的知識資料庫回答任何問題,然而,其設計者卻從未揭露此知識資料庫的範圍與規模。

未來當責人工智慧,更被期待應如同企業財報一樣,針對系統功能範圍(避免誤用)、安全性(避免系統與演法模型被攻擊)、穩健性(避免答案不一致)、可靠性(避免答案錯誤)、合規性(避免違反與道德)、可解釋性(避免決策過程黑箱難以理解)、公平性(避免偏見)等,由第三方機構進行稽核、審查、確信或驗證,來確保人工智慧應用的可信任程度。

面對AI的機會與挑戰,企業需扮演當責人工智慧的倡導者,結合詠唱專家、調音工程師及接受利害關係方監督,以確保AI在創新與倫理之間取得平衡,讓科技的力量更具社會價值。

延伸閱讀:AI真的成為裁員因素!5月近4000人被搶飯碗,裁員潮才正要開始?

《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。

(觀點文章呈現多元意見,不代表《數位時代》的立場)

責任編輯:林美欣

關鍵字: #AI #ai人工智慧

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
電商終局戰
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓