ChatGPT一出,世界就變了。
有人說,人類文明將再也不同,這是一個「愛迪生時刻」(Edison Moment),保守一點的,說這是「iPhone時刻」(iPhone Moment)。我們的生活將從此改變。
過去半年,出現對於AI能做的事物的各種驚嘆,以往只是研究前沿領域的事物,現在突然來到我們每個人的電腦前;說了這麼久的人工智慧世界,終於看到可能的樣貌。
科幻小說的未來世界開始來臨了。但也有人擔心,這可能是一個「侏羅紀公園時刻」(Jurassic World Moment)——意思是,人類釋放出我們無法掌控的怪獸。科幻小說描述的反烏托邦也會隨之來到:AI操控,甚至毀滅人類。
「比GPT-4強恐危及人類!」馬斯克組團喊卡
月前,包括伊隆.馬斯克(Elon Musk)在內的1,000多名科技界領袖和研究人員聯合發表公開信,呼籲暫停開發比GPT-4更強大的AI系統,因為這會「對社會和人類構成深遠風險」,主張在這段期間內引入一套共享的安全協議,並且可以被外在、獨立的專家所監管。
「如果無法快速實施這樣的暫停,政府應該介入並制定暫停期。」他們指出,OpenAI自己都曾經表達,「到了某個時間點,在開始訓練新的未來系統前,必須有獨立的審查機制。」他們認為,這個時間點就是現在。
問題的關鍵在於:AI開發人員陷入了一場失控的競賽,開發和部署愈來愈強大的數字思維,以致所有人——甚至包括它們的創造者——也無法理解、預測或可靠地控制它們。
當然,推動積極開發者如OpenAI的執行長山姆.奧特曼(Sam Altman)不相信AI會有一天宰制人類,因為他說目前系統仍需要下指令。但他也承認「我們必須小心翼翼」,「我特別擔心這些模型會被用作大規模的錯誤資訊傳遞。」「他們現在更有能力寫程式語言,也就更能用做網路攻擊。」
因此,我們或許不用相信AI模型可以自主宰制人類,但不能不擔心,是什麼樣的人類控制了AI。畢竟,主導AI發展的科技不是中立,而是要獲利的商業資本主義。最自我矛盾的馬斯克在推特(Twitter)上指出:「 AI,人類創造出過最有力量的武器,現在是在少數無情的壟斷企業手中。 」
說得跟真的一樣,當前AI有幻覺缺陷
此外,錯誤資訊(misinformation)是現在許多人最擔心的問題,尤其是目前的AI語言系統會有嚴重「幻覺問題」(hallucinations problem):AI經常搞錯事實,卻會自信地把虛構說成事實,而因為它太會表述(而且多有禮貌啊),人們通常很難分辨什麼是對的,什麼是錯的。因此,如果落在希望傳播假訊息的人手中,不論是私人詐騙,或者政治操控,都會讓我們已經進入的「後真實世界」更為真假模糊。
紐約大學(New York University)教授Gary Marcus說,「我們所創造的模型比較被適合理解為推論的機器,而不是一個事實的資料庫。」 「我們希望他們所做的是更接近推理的能力(ability to reason),而不是記憶的能力。」
而且許多研究者都指出,其實人類並不真的理解AI內在的運作,也無法完全預測它們所創造出來的系統。
《紐約時報》(The New York Times)科技記者Kevin Roose(就是跟Bing發生詭異曖昧對話,震撼全球的那位)在最近對於GPT-4的報導指出,他們常常會做出開發者都沒遇想到的行為——用AI界的術語這叫 「湧現行為」 (emergent behaviors),例如「一個被教導要表現得友好且樂於助人的聊天機器人,可能會顯得居心不良,善於操縱他人。AI語言模型甚至可以學習自我複製,創建新的副本以防原始模型被破壞或被停用。」
OpenAI在3月公布一份文件,列舉出一些GPT-4令人不寒而慄的行為,但強調他們已解決。但問題是,這代表所有非預期行為都已經被發現和解決嗎?那下一個更厲害的系統呢?
除了上述問題,對我來說,不斷開發AI最弔詭的是,我們把機器訓練得更聰明,把從找資料到分析問題的工作都讓渡給他,成為人類最好的助手(雖然他提供的許多資料未必是事實),然後呢?這還不是一般常討論取代人類工作的問題,而是「人工智慧」取代「人類智慧」的問題。
我們是不是會更喪失了寫作能力、研究能力及分析能力,就變成一個懶鬼坐在椅子上發號施令——似乎沒有反烏托邦科幻片,比起AI殺掉人類可怕?(雖然,在2022年一份針對超過700名學術界及最領先AI公司研究者的調查中,超過一半的人認為未來有10%的機率AI可能讓人類滅絕。)
智慧是需要被訓練的。人工智慧如此,人類智慧也是。 是在一次次的思考判斷,推理練習中,我們才能變得更聰明,更有智慧。當我們把每一次練習機會讓給機器,當「助理」比我們更聰明(或許已經是),那真的是人類的自我毀滅了。
責任編輯:傅珮晴、蘇柔瑋