AWS年度技術大會re:Invent 2023登場,拉斯維加斯現場擠進5萬名參加者,所有眼光都聚焦在這家雲端龍頭大廠的生成式AI成績單,推出哪些產品和最大競爭對手微軟較勁。
AWS端出多項生成式AI技術,從最底層自研AI訓練晶片等基礎建設,到協助模型調校、開發的聊天機器人,並且強調專門針對企業客戶開發,保障安全性,也更符合工作使用的需求,大螢幕甚至直接秀出微軟「不安全」的文章,叫陣意味濃厚。
為了強調AI的重要性,AWS執行長亞當‧謝利普斯基(Adam Selipsky)也一改過去開幕演說以「太空、深海、南極、想像世界」等詩意的分類方式,這次直接將生成式AI切成「基礎建設、模型工具、應用程式」三大層,以此為基礎展開整場發布會,強調AWS從裡到外都準備好提供生成式AI技術的決心。
《數位時代》也前進拉斯維加斯現場,直擊AWS最新動向。
一、應用層:聊天機器人真的來了!「Amazon Q」號稱企業專家
手握龐大資料的AWS終於也推出自家的聊天機器人「Amazon Q」,正式和對手微軟Copilot、Goolge Bard功能競爭,不過Q最大的差異在於,這款聊天機器人鎖定的是企業客戶,亞當更直言:「大部分公司推出的聊天機器人都無法在工作中順利應用,因為它不懂你的公司,也不知道你在工作中的習慣。」
Amazon Q專門鎖定企業應用,可以在完全安全、封閉的環境下學習公司系統裡的資料,讓Q了解所有正在運行的Project名稱、內容、會議紀錄等資料,了解你在做什麼事,也知道你在工作中的角色,成為專屬的「業務專家」(Business Expert)。
針對IT人員,可以用聊天機器人提供程式語言的建議,甚至能在一聲令下,幫忙排除網路問題、或者自動更新Java程式語言,而且速度飛快,1000個Java App只要用2天就能更新完成,這在過去需要花好幾個月的時間,這項功能一秀出,獲得現場開發者如雷掌聲。
至於其他行銷、業務等各部門的成員,也可以詢問Q業務上的問題,例如哪些功能會造成客戶最多的困難?Q會在幾秒內把自然語言轉成指令,掃瞄企業資料後快速回答,甚至請Q直接做出一份圖表報告,並且持續用聊天機器人快速調整內容,例如文字更長一些、把圖表換成其他更鮮豔的色彩等。
亞當強調,Amazon Q是市面上完全鎖定工作需求的聊天機器人,並且是能夠實際進行更新等動作的助手,並非只是提供建議。 會中更「砲火十足」秀出微軟內部限制員工使用ChatGPT的新聞,強調自家的安全性更勝對手。
二、模型工具層:聊天機器人幫你挑模型、把關訓練資料
在中間層,AWS強調提供最適合的模型和好用的工具。亞當指出,企業最大的煩惱其實是「怎麼選擇適合自己的模型」,這點也能用生成式AI來提供解方。
聊天機器人Agents協助挑模型、提供指引
在能夠訓練、調校AI的平台Bedrock中推出聊天機器人助手「Agents」,開發者可以用自然語言詢問,獲得四大類的支援,即使是非專家也能完成複雜的AI模型任務,AWS強調這項工具不只是提供指引,甚至可以代替你直接執行任務。
1.協助挑選模型:可以告訴Agents自己的模型需求,請它幫忙推薦平台中最適合的模型。
2.提供簡單的操作指引:不知道下一步怎麼做的時候,也可以詢問Agents提供步驟和指引。
3.客製化運算資源:請Agents幫忙把Lambda運算功能依照自己的需求調整。
4.幫忙挑選相關的數據:請Agents在各個部門或不同來源的數據中挑出和需求最相關的,方便後續應用數據。
推「AI護欄」讓企業自己把關、避免AI幻覺
至於企業使用生成式AI最害怕的就是「幻覺」或者輸出錯誤、不良資訊,導致企業形象受損,為此AWS也推出新功能AI Guardrails(AI護欄),企業可以自行用自然語言下指令,讓護欄協助擋下敏感資料或者有害的資訊,避免AI「學壞」,例如銀行客服的應用,在輸入端請護欄自動擋下歧視用語、冒犯言論等資料,輸出端則請機器人不要提供投資建議,避免爭議發生。
Anthropic正式選邊站
AWS母公司亞馬遜(Amazon)今年以史上最大手筆的40億美元,投資生成式AI新創Anthropic,並且使AWS成為Anthropic主要的雲端服務平台提供者,並透過AWS客製化晶片加快Anthropic的運算效能。
這也代表OpenAI的最大競爭對手Anthropic正式「站隊」亞馬遜,成為AWS AI服務的一部份,Anthropic的大型語言模型Claude已經加入AWS AI代管平台Bedrock,未來AWS客戶可以用Anthropic的底層模型來客製化、微調成自己想要的樣子。
三、基礎建設層:自研AI訓練晶片和處理器助攻模型效能
作為市佔超過6成的雲端龍頭,遍布全球的大量資料中心和可用區域就是對手最難匹敵的一大先天優勢,AWS在會中號稱比競爭對手多出3倍的資料中心、60%的服務量和40%的功能,除了數量取勝外,AWS同時強調自家研發的多款處理器和加速器可以達到最佳的效能表現,同時降低能量耗損。
自研晶片處理器
由於生成式AI訓練所需要的龐大工作量,企業客戶最頭痛的就是運算時的成本問題,尤其是購買GPU資源所投入的資金,和訓練時間長短的拉扯,每家公司想要又快又便宜的方案坐擁生成式AI技術,這點必須靠更強大的晶片處理器能力達成。而在亞馬遜、微軟和谷歌這三家中,亞馬遜是唯一一家在伺服器中提供兩種類型晶片:標準計算晶片和訓練、推理模型專用晶片的雲端提供商。
AWS本次不意外地在大會中宣布推出下一代AWS自研的晶片系列——AI訓練晶片AWS Trainium2和處理器Graviton4,專門針對客戶在雲端工作的「性價比」和「能源效率」兩大需求提供服務。
1.AI訓練晶片Trainium2
專門為訓練AI模型設計的晶片,可以在極短時間內訓練出大型語言模型,第二代訓練速度比上一代快4倍,能源效率也提高2倍。
2.ARM架構處理器Graviton4
AWS在短短五年內推出的第四代處理器,能夠利用AWS在雲端解決方案中累積的「知識」,幫客戶做出最省資源的運算和工作量分配。第4代和當前一代相比運算效能提高了 30%,核心數量增加了50%,記憶體頻寬也增加了 75%。
NVIDIA深度合作:聯手打造AI超級電腦、推模型訓練服務
最近行程滿檔的NVIDIA執行長黃仁勳親自站台,宣布雙方進一步的合作。
1. Project Ceiba:史上最大、全球最快的AI超級電腦
由AWS和NVIDIA聯手設計且正在進行的專案,在這台超級電腦中將一口氣配置多達1.6萬顆NVIDIA GH200超級晶片,能處理65 exaflops速度等級的AI運算,黃仁勳強調,這等於把65台超級電腦集結在一起的強大力量,是史上最大規模的系統。
2.NVIDIA DGX Cloud:AI訓練即服務(AI-training-as-a-service)方案
雙方聯手推出的方案,能加速高達1兆參數的生成式AI和大型語言模型訓練。黃仁勳指出,因為AWS獨家的Nitro系統,才讓NVIDIA可以一次可以把32顆H100 GPU結合在一台虛擬機內,幫助開發者可以一次使用到最大量的資源。
AWS鎖定企業市場的軍火展示
自從生成式AI大戰開打,過去居市場領導地位的亞馬遜和AWS在這一年裡相對低調,當對手不斷拋出產品和服務時,AWS僅做出Anthropic投資的大動作。
因此年末登場的re:Invent成為一場軍火展示,AWS圍繞著生成式AI拋出大量技術更新,並推出企業專用新產品應戰,鎖定對手微軟、OpenAI、Google等公司一直覬覦的企業市場推出服務,希望成功搶下客戶的心。
責任編輯:蘇祐萱