身在亞洲,看到AI是半導體業的大好機會。但在舊金山一年一度的Semicon West會場觀察,這說法遺漏了關鍵的另一半: AI更是整個科技產業眼前最艱鉅的登頂大挑戰。
走出疫情等考驗,全球電子相關產業正向六到八年後成為上兆美元規模的龐大產業邁進。AI應用近年蓬發,是主推科技產業的新動能,整個電子產業規模能否順利跨兆,幾乎就看AI能否持續發力。
AI資本集中化高,6大廠佔全球7成
單是要滿足目前看得到的AI巨幅運算需求,就需要投入相當於4500億美金左右資本支出。
根據麥肯錫顧問公司在「電腦運算的未來」(Future of Computing)議程中揭露的研究,到 2030 年止整體半導體產能需求中有一半來自生成式AI,為此就需要20到24座12吋晶圓廠,其中包含邏輯晶片的6座廠產能,8到12座投入DRAM,3座投入NAND快閃記憶體。
麥肯錫預估, 亞馬遜、微軟、Google、Meta、甲骨文、IBM這六家在2027年投入資料中心建設的資本支出,將佔全球近三千億美元總額中的近七成。
雖然半導體晶片僅是整個AI生態系中的一環,卻是關鍵環節。
能力愈大、責任愈重!AI耗能成產業巨頭一大挑戰
2022年1月,生成型AI引爆AI高度成長,迅速翻轉了電資產業的附加價值重點所在。投資銀行 Needham估算,台積電交出的晶圓每片售價皆是一萬五千美金,但到了台積電客戶手中,用於行動電話等產品的晶圓,最終可產出三萬美金營業額,但對比AI晶片客戶,竟可產生五十萬美金的最終業績。
高價值帶來豐沃財務回收,也意味著必需一肩挑起高難度並全面的技術與營運挑戰。
Google於去年宣布、專為AI應用開發的A3超級電腦,每一組機台內有26000套輝達的 H100 GPU。另一方面,今年底前,Meta全球的資料中心內將裝設約35萬套H100,將整個算力規模提升到60萬H100 GPU的水準。
IBM的專家估算,Meta為此投入的資金至少以數十億美金計算。AI能否落實它所激起高度期待,目前最直接的限制因素就是以晶片為基礎的硬體要素。
AI的算法能否成熟運作,所需消化的海量資料能否學習內化、進而推論,算力能否滿足所需門檻,以至AI的能源消耗能否控制在地球環境可承受的範圍內,Semicon West議場台上的講者都望向半導體業尋求答案。
不論是運算能力或是耗能表現的快速進化,每一道難題都需要以晶片為核心的硬體供應商全力扛責。
AI發展仍在前期,能源問題迫在眉睫
根據Allen AI研究所推估,用戶每一次叫出 ChatGPT進行搜尋,所耗用的電力就可以燃起電燈泡20秒鐘。而Yole集團在會中市場論壇所分享的資料更明指,要訓練Google所推出的 Geminni語言模型,需要使用21800顆達輝 H00 GPU晶片運算五個月,耗去16MW的電力,若使用Google自行開發的AI處理晶片,則需要47000顆才可成事。
冷冰冰的數字明示,AI運算系統要能滿足算法模型的需要,還有大幅演進空間。
其實這些具體技術與營運的挑戰早已是半導體業日夜構思、面對的課題,但AI的市場機會促使它們更顯明、更急迫,兵臨城下,無所遁形。
《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。
(觀點文章呈現多元意見,不代表《數位時代》的立場)
責任編輯:李先泰