2023年未來商務展首度與 AI Taiwan 聯展,以「AI FOR ALL」為主題,引領商界進入未來商務的全新篇章。一同抓住科技所帶來的新契機,開啟下一波商業革命海嘯!
《數位時代》也將直擊,帶來第一手的現場觀察。
未來商務展AI晶片論壇於今(16日)在花博爭艷館登場,邀請到創鑫智慧營運長陳建良、耐能智慧助理副總裁楊英廷以及聚芯資本合夥人陳慧明齊聚一堂,並由《數位時代》總編輯王志仁主持,針對AI語言模型演進、AI模型微型化和未來發展進行討論。
過去幾年,AI的發展主要聚焦在分析式AI,對於物體的辨識比較多的應用,最近ChatGPT所掀起的風潮則為生成式AI。陳慧明指出,過去分析式AI在中國有較大量的應用,如人臉辨識、過海關等都是,「雖然量大但以邊緣端居多。」
至於當紅的生成式AI,楊英廷則認為,「現在AI運算還在處於早期階段,還未爆發,目前也只有皮衣大哥賺到錢。」當前生成式AI所帶來的算力需求,讓內含輝達GPU的AI伺服器需求大爆發,但要真正落地到各應用場景中,還有一段路要走。
AI模型還會縮小!甜蜜點落在30億至70億參數間
楊英廷指出,在2016年AI被應用於YOLO物體偵測時,從第3代到第7代,模型是不斷在變小,「但結果是更準。」他認為,現在用來訓練ChatGPT的大型語言模型(LLM),將來也會走向微縮的道路。「一直有一群人,在AI發展途中試圖要把模型變小。當模型夠小,表示背後硬體成本能降低,才有辦法讓應用真正爆發。」
除了縮小語言模型外,晶片的架構演進也非常重要。當晶片的算力、能耗提升,演算法又微縮到相當程度,雙方在一個甜蜜點交叉時,AI應用才會大爆發。楊英廷指出,當甜蜜點出現時,AI參與者都將提供更多元的服務,而當前耐能對於邊緣端的應用,則相對看好。
陳建良表示,企業對未來AI模型的需求不外乎就兩個:小和準。他指出,目前看來一個擁有30億到70億個參數模型,會是一個可能的時機,「也不能太小,就像腦容量還是要有一定程度。」
跟隨超微、輝達,台廠須積極打入生態系
至於機會在哪呢?陳慧明分析,台灣對於生態圈的思維較缺乏,美商諸如超微(AMD)或輝達(NVIDIA)會自建資料中心的軟硬整合生態系,因此朝邊緣運算發展將會更適合台灣。
陳慧明指出,台灣機會在邊緣端,和美廠做結合,諸如信驊和世芯都很有機會。「接下來台廠必須要進入這些大型玩家的生態系,我們在硬體部份能補足美國互聯網公司的夢,會有很好的展方向。」
陳慧明也認為,當前AI伺服器量還不夠大,但價值高,「因為輝達賣的是一整張卡而不是晶片,大部分利潤都被他賺走。」他認為三到五年後,台灣半導體廠商才有機會運用晶片切入,「例如聯發科,將來在HPC、電動車會有很多位置。」
陳建良也認為,台灣的生態系包含IC設計、代工、封測和電子五哥供應鏈等,善用生態系是很好的優勢。楊英廷則表示,台灣在生態系發展上一直都比較縮,如何站在巨人的肩膀上,深入如家庭、會議等場景應用,並對接開發者,都是與大廠共舞的方向。
責任編輯:錢玉紘