微軟砸數億美元,幫ChatGPT打造超強計算機!Nvidia 處理器就用了上萬個
微軟砸數億美元,幫ChatGPT打造超強計算機!Nvidia 處理器就用了上萬個

美國當地時間週一,微軟發文透露其斥資數億美元幫助OpenAI組裝了一台AI超級計算機,以幫助開發爆火的聊天機器人ChatGPT。這台超算使用了數萬個輝達GPU A100,這使得OpenAI能夠訓練越來越強大的AI模型。

OpenAI試圖訓練越來越大的AI模型,這些模型正在吸收更多的數據,學習越來越多的參數,這些參數是AI系統通過訓練和再培訓找出的變量。這意味著,OpenAI需要很長時間才能獲得強大的雲端計算服務支持。

為應對這一挑戰,當微軟於2019年向OpenAI投資10億美元時,該公司同意為這家AI研究初創公司組裝一台巨大的尖端超級計算機。但問題在於,微軟沒有任何OpenAI所需的東西,也不完全確定其能否能在不破壞Azure雲端服務的情況下構建如此龐大的設備。

為此,微軟不得不想方設法將輝達的數萬個A100 GPU連接起來,並改變伺服器在機架上的放置方式以防止斷電。A100 GPU是培訓AI模型的主力。微軟負責雲端計算和AI業務的執行副總裁斯科特·格思裡(Scott Guthrie)沒有透露該項目的具體成本,但其暗示可能達數億美元。

微軟Azure AI基礎設施總經理尼迪·卡佩爾(Nidhi Cappell)說:「我們構建了一個系統構架,它可以在非常大的範圍內運行且十分可靠,這是ChatGPT成功的重要原因。這只是我們從中得出的一個模式,還會有許許多多其他的模型。」

人工智慧技術的研究.jpg
圖/ 微軟提供

基於這項技術,OpenAI發布了爆火的聊天機器人ChatGPT。在去年11月上線後幾天,它就吸引了100多萬用戶,現在正被納入其他公司的商業模式。隨著企業和消費者對ChatGPT等生成式人工智慧(AIGC)工具的興趣越來越大,微軟、亞馬遜和Google等雲端服務提供商將面臨更大的壓力,以確保他們的數據中心能夠提供所需的巨大算力。

與此同時,微軟現在也開始使用它為OpenAI構建的基礎設施來訓練和運行自己的大型AI模型,包括上個月推出的新必應搜尋聊天機器人。該公司還向其他客戶銷售該系統。這家軟體巨頭已經在研發下一代AI超級計算機,這是微軟與OpenAI擴大合作的一部分,微軟在交易中增加了100億美元投資。

格思裡在接受採訪時說:「我們並沒有為OpenAI訂製任何東西,儘管其最初是訂製的,但我們總是以一種泛化的方式構建它,這樣任何想要訓練大型語言模型的人都可以利用同樣的改進技術。這真的幫助我們在更廣泛的範圍內成為更好的AI智慧雲端。」

訓練規模龐大的AI模型需要在某個地方有大量相互連接的圖形處理單元,就像微軟組裝的AI超級計算機那樣。一旦模型投入使用,回答用戶查詢的所有問題(這個過程稱為推理)需要略有不同的設置。為此,微軟還部署了用於推理的GPU,但這些處理器(成千上萬個)在地理上分散在該公司60多個數據中心裡。微軟表示,現在該公司正在添加用於AI工作負載的最新輝達GPU H100以及最新版Infiniband網路技術,以更快地共享數據。

新的必應仍處於測試階段,微軟正在逐步從申請測試名單中增加更多用戶。格思裡的團隊與大約20多名員工每天都要舉行會議,他將這些員工稱為「pit crew」,原指賽車中車隊後勤維護組的技師。這些人的工作是找出如何讓更多的計算能力快速上線,以及解決突然出現的問題。

雲端服務依賴於數千個不同的部件,包括伺服器、管道、建築物的混凝土、不同的金屬和礦物,而任何一個組件的延遲或短缺,無論多麼微小,都可能導致整個項目中斷。最近,「pit crew」團隊不得不幫助解決電纜托盤短缺的問題,這是一種籃狀的裝置,用來固定從機器上順下來的電纜。因此,他們設計了一種新的電纜橋架。格思裡說,他們還致力於研究如何在世界各地的現有數據中心壓榨盡可能多的伺服器,這樣他們就不必等待新的建築竣工。

當OpenAI或微軟開始訓練大型AI模型時,這項工作需要一次完成。工作被分配給所有的GPU,在某些時候,這些GPU需要相互交流來分享他們所做的工作。對於AI超級計算機,微軟必須確保處理所有晶片之間通訊的網路設備能夠處理這種負載,並且它必須開發出最大限度地利用GPU和網路設備的軟體。該公司現在已經開發出一種軟體,可以用來訓練數十萬億個參數的AI模型。

因為所有機器都是同時啟動的,微軟不得不考慮安放它們的位置,以及電源該應該放在哪裡。否則,數據中心最終可能會斷電。Azure全球基礎設施總監阿利斯泰爾·斯皮爾斯(Alistair Speirs)說,微軟還必須確保能夠冷卻所有這些機器和晶片,該公司在較涼爽的氣候中使用蒸發;冷卻方式、在較冷的氣候中使用室外空氣,在炎熱的氣候中使用高科技沼澤冷卻器。

格思裡說,微軟將繼續致力於訂製伺服器和晶片設計,以及優化供應鏈的方法,以盡可能地提高速度、提高效率和節省成本。他說:「現在令世界驚嘆的AI模型是基於我們幾年前開始建造的超級計算機構建的,而新模型將使用我們現在正在訓練的新超級計算機。這台計算機要大得多,可以實現更複雜的技術。」

微軟已經在努力使Azure的AI功能更加強大,推出了新的虛擬機,使用輝達的H100和A100 Tensor Core GPU,以及Quantum-2 InfiniBand網路。微軟表示,這將允許OpenAI和其他依賴Azure的公司訓練更大、更複雜的AI模型。

微軟Azure AI企業副總裁埃里克·博伊德(Eric Boyd)在一份聲明中說:「我們發現,我們需要構建專門的集群,專注於支持大量的培訓工作,而OpenAI就是早期的證據之一。我們正與他們密切合作,了解他們在建立訓練環境時需要的關鍵條件,以及他們需要的其他東西。」

本文授權轉載自:網易科技

責任編輯:傅珮晴、錢玉紘

本網站內容未經允許,不得轉載。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
台日半導體新局 全解讀
© 2024 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓