運算沒有通用解!Intel 面向人工智慧市場的三箭策略
運算沒有通用解!Intel 面向人工智慧市場的三箭策略

Intel 在美國時間 2018 年 5 月 23 日假舊金山召開人工智慧開發者大會(AIDC, Artifital Intelligence Developer Conference),這是在 Intel 接連併購了 Nervana、Movidius 與 MobilEye 後,繼 2017 年的 AI Developer Day 後,第二次面向人工智慧市場開發者的小試身手。

Intel 近年與人工智慧高度相關的併購案整理

併購時間 併購對象 主要項目 併購金額 主要人物
2015 年 6 月 Altera FPGA生產商 167億美金 Brian Krzanich
2016 年 8 月 Nervana 機器學習平台架構 3.5億美金 Naveen Rao、Amir Khosrowshahi
2016 年 9 月 Movidius 低功耗、高效能終端人工智慧運算晶片 4億美金 Remi El-Ouazzane
2017 年 3 月 Mobileye 視覺運算為基礎的駕駛輔助系統 153億美金 Amnon Shashua
資料來源:Intel 新聞稿、《數位時代》外電、Crunchbase,《數位時代》整理

為什麼說是小試身手?

作為傳統 PC、NB 時代,甚至到目前為止所有主流資料中心的運算霸主,Intel 在人工智慧市場來得有點晚。當 NVidia 推出 CUDA,讓科學領域的平行運算開始當紅,意味著高效能運算(HPC, High Perfomance Computing)有著非常巨大的缺口,Intel 曾經以為的主機運算或資料中心的高市佔率,看起來只不過是未來運算市場的冰山一角。Intel 這下急了,前頭幾年才剛在行動運算市場才重重跌了一跤,在如今幾乎人手一機(連同平板、智慧音箱,根本早不止一機)的智慧裝置上幾乎不見身影,於是你見到布萊恩科再奇(Brian Krzanich, Intel CEO, 2013 年 5 月至今)終於開始出手買、買、買,在不到兩年內買了 Altera、Nervana、Movidius 與 MobilEye。經過了兩年的整合,終於造了 Intel 面向人工智慧市場的三劍策略,並在以往對 Intel 可說是重頭戲之一的 Computex 前夕,勇敢開了第一次面向人工智慧市場的 AI 開發者大會(AI Developer Conferece, AIDC, or AIDevCon),作為 Intel 準備華山論劍前的小試身手。

開源編譯器 nGraph,是 Intel 面向人工智慧的第一把箭

從商學院典型的策略分析看來,你不能說買這三家公司有什麼巨大問題,在人工智慧運算市場,佈局一家機器學習平台的軟體演算架構公司 Nervana 的確非常合理,市場上一個原先名不見經傳的小弟 NVidia 都有一個聞名天下人的 CUDA、甚至也還推了一個 GPU Cloud,身為堂堂擁有伺服器處理器市場的 Intel,既然有超過 97% 以上的機器學習伺服器用的是自家的中央處理器,整合 Nervana 在深度學習演算法的 IP,並推出一個 nGraph 是非常合乎常理的商業策略。

Naveen Rao 在 Intel AIDC 2018
創辦 Nervana 的 Naveen Rao,如今是 Intel 的企業副總裁,也是人工智慧產品部門的總經理
圖/ James Huang 攝影

創辦 Nervana 的 Naveen Rao,如今是 Intel 的企業副總裁,也是人工智慧產品部門的總經理,他麾下的人工智慧產品部門,所造出 Intel 人工智慧的第一把劍是一個開源的深度神經網絡編譯器 nGraph,這個來自 Nervana,卻最終實現 Intel 人工智慧的相關佈局的軟體框架,對 Intel 面向人工智慧運算至關重要。

對於運算將無所不在的人工智慧市場,多數的商業報告都絕對同意,人工智慧的多數運用將發生在不同端點,如 NVidia 的創辦人黃仁勳在 2018 年 GTC 即提及這些應用可能分散在不同的垂直產業,例如自動駕駛、專業繪圖(ProViz)等不同領域。Intel 認為未來人工智慧市場有三大核心:自動駕駛流運算(Streaming Computing)與資料中心。但,對於所有人工智慧應用或研究的開發者而言,市面上有太多不同面向的機器學習或深度學習開發框架,如 MXnet、Tensorflow、PyTORCH 或 Caffe2 等,2018 年框架背後所支持的各大廠開始共享 ONNX 容許這些開發框架快速交換深度學習模型格式是一大進步,但框架底層的加速問題還是關鍵,如何讓這些框架可以充分利用硬體運算資源還是所有人工智慧應用開發或研究者最關心的事。

Intel Nervana nGraph 架構
Intel Nervana nGraph 架構
圖/ James Huang 攝影

開源的 nGraph 整合了多數的深度學習開發框架,與 CUDA 類似同樣支援 MXnet、Tensorflow、PyTORCH(計畫中,目前尚未) 或 Caffe2 (計畫中,目前尚未)等,並面向更多不同的硬體運算裝置,如 CPU、GPU、FPGA、Intel Movidius 的神經運算棒或剛推出的 Intel Nervana Neural Network Processors(Intel Nervana NNP,神經網絡處理器)等。Naveen Rao 就特別強調,在人工智慧市場上,運算並沒有通用解(not one size fit all),不同的需求、不同的應用需要不同的運算裝置來滿足。

從大到小、從裡到外的處理器,Intel 就是要滿足人工智慧的第二箭

本來,在運算世界裡,GPU本來就不是人工智慧的萬能鑰匙!只是近幾年,在半導體成本持續有效下降、算力大幅提升、能量效率卻維持一樣的情況下(Dennard Scaling, 請參考史丹佛前校長,現 Alphabat 董事長 John Hennessy 在 Google IO 2018 的演說:運算的未來),GPU 變成平行運算的第一個突破口,讓機器學習演算有了突破性表現,證實許多神經網絡方法是「有效的」,並進一步帶動加速神經網絡運算的硬體,從 Google 所設計的 TPU、NVIDIA 為 GPU 引入 Tensor Core 的 Volta 微架構,到 Intel 決心推出 Nervana NNP,針對通用大矩陣運算加速、可平行運算的處理器。

專為神經網絡演算設計的 Intel Nervana NNP 有兩個版本,一個是 Lake Crest 版本,在 2017 年年底前推出,號稱比 GPU 更快、耗能更低,但只提供給部分 Intel 合作夥伴。2018 年 5 月 AIDC 上所推出的 NNP 稱做 Spring Crest,實際將在 2019 年推出商用市場,是第一款正式商業化的 NNP,因為重新設計,並使用更好的製程,號稱比 Lake Crest 提升了 4 倍左右的性能。

另一項 Intel NNP Spring Crest 所帶來的更新則更加靠近深度學習應用。 Spring Crest 將在處理器中支援 Bfloat16。Bfloat16 是 TensorFlow 架構中所特有的一種浮點數,與我們常在計算機概論中所學 IEEE 754 標準中的 float16 不同,Bfloat16 其實是截斷 float32 的前 16 位,僅用後 16 位所組成。由 TensorFlow 所率先引入的 Bfloat16 被發現在深度神經網絡計算中,可以透過截斷前面來避免梯度越大造成係數越來越小,甚至最後變成 NaN 值而無法使用。

Intel Nervana neural network processor NNP 神經網絡處理器
Intel Nervana neural network processor NNP 神經網絡處理器(Lake Crest 版本)
圖/ Intel 提供

根據一些研究表明,Bfloat16 在不同深層神經網絡應用推論與訓練效果都極好,好過 Uint8 或 float32,因此被大量應用在神經網絡演算中。此次將是 Intel 首次將 Bfloat16 內建在處理器中,Naveen Rao 表示,Intel 也將在 Xeon CPU 與 FPGA 中逐步支援 Bfloat16。除卻 Bfloat16,無論是 NNP、FPGA 或 CPU 都有可能針對神經網絡的特定演算增加大量的指令集,惟 Naveen Rao 並不願意透露 Intel 是否可能會加入的指令集與發展藍圖。

Intel 人工智慧策略第三箭:開發者社群

Intel 推出開源的 nGraph,其實是重要的一步。只是這一步姍姍來遲,嚴格說起來,從 2008 年 NVidia 的 CUDA 面世,這一步用了超過 10 年,除去花了青春,還花了 Intel 不少錢(意旨併購策略)。在 CUDA 推出當時,我們只知道 GPU 可以當 CPU 用了,那時候有一個 GPGPU (General Perpose GPU)的詞剛剛被介紹給大眾,剛剛推出的 NVCC (NVIDIA C compiler)還被很多開發者抱怨,它與傳統的 C/C++ 部分型別不合,意思是,沒辦法直接拿 C/C++ 的程式碼改做,需要做特殊配置的修改。

然後,為了得到便宜又直接的平行算力,有很多開發者在上頭改寫程式碼,這些改寫過的程式又被放回 Github 上共享,其中許多更隨著機器學習或神經網絡應用而快速成長。縱然 CUDA 或 基於 LLVM 的 CUDA 編譯器並沒有開源,在網上也有大量開發者文件、工具、教學,配合各種教程等,讓開發者得以快速上手應用。

Naveen Rao 在 Intel AIDC 2018
創辦 Nervana 的 Naveen Rao,如今是 Intel 的企業副總裁,也是人工智慧產品部門的總經理
圖/ James Huang 攝影

縱然 nGraph 開了源,對多數開發者來說,可以拿 nGraph 完成什麼工作、得到什麼好處恐怕才是接下來的推廣難題。在 2018 年的今天,主流機器學習架構有 Google 支援的 TensorFlow、AWS 力推的 Apache MXNet、微軟的 CNTK 與 Facebook 的 Caffe 2 或學術界為主的 PyTorch 等,除卻整合資料交換框架的 ONNX,這些架構要獲得硬體加速的作法都是從編譯器上直接橋接、整合。nGraph 等於直接為所有未來可能的架構開了一扇門,只要你可以透過 nGraph 來處理代碼,任何開發者都有機會可以獲得 Intel 硬體直接加速。

因此,nGraph 有多少使用者、有多少架構透過 nGraph 開發出橋接、使用 nGraph 整合、甚至分岔出什麼樣的新應用,就意味著 Intel 的開發者生態系多出了哪些新應用。甚至,我們就看到 Intel 內部正在實作整合 nGraph 與 NVIDIA cuDNN(以 CUDA 實作深度神經網絡演算的架構)。

在 Intel AIDC 中,Intel 也再次強調了他們基於 Apache Spark 開源的 BigDL ,一款分散式深度學習架構,這款架構特別適合已經擁有 Apache Spark 或 Hadoop 資料架構的組織,在其上直接部署深度學習的工作流程。針對神經網絡運算所加速的電腦視覺應用, Intel 在本月稍早也公布了一套 OpenVINO 工具組,這套工具組整合了 機器學習框架如 Caffe、TensorFlow 與 MXNet,也整合了 OpenCV,結合 Intel 的各種大小處理器(CPU、GPU、FPGA、VPU等),讓開發者可以快速部署透過這些框架所開發的機器學習模型至終端裝置,如智慧攝影機上。

關鍵字: #英特爾
往下滑看下一篇文章
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作

現代人手機不離手,通勤時滑短影音、午休追串流影劇、下午開視訊會議,網路影音應用成為工作與生活的普遍情境。然而,一旦畫面卡頓、畫質不穩,或聲畫不同步,使用體驗立刻打折,甚至影響工作效率與專業判斷。

也因此,網路品質不再只是「快不快」的問題,更關乎能否在高使用量的日常情境下,維持穩定、連續的表現;對此,第三方評測也採用更貼近使用者情境的方式衡量網路體感。而 Opensignal 最新報告指出,台灣大哥大在影音體驗相關項目是業界唯一同時拿下「影音體驗」與「5G 影音體驗」雙項獎項的電信商,其中,關鍵的差異是什麼?

為何「影音體驗」是網路品質的關鍵指標?

愈來愈多消費者入手旗艦機,追求的不只是硬體規格,還有流暢的 AI 應用與多工協作。然而,無論是視訊即時翻譯或雲端會議,這些高階功能都有一個共同前提:網路必須穩定。一旦網路品質不佳導致畫質下降或音畫不同步,旗艦級的 AI 功能將形同虛設。

這也意味著,檢驗網路價值的標準已經改變。如今,不能只看單點測速的瞬間峰值,更重要的是高負載情境下的耐力表現。因此,比起單點測速,影音體驗會是更完整的測試標準,直接挑戰了網路在室內深處、移動途中或人潮聚集時的網路實力;而唯有在長時間串流下依然不卡頓、不降畫質,才稱得上是高品質的連線。

換言之,隱身在硬體背後的電信商,才是發揮旗艦機性能的關鍵;唯有透過最佳網路品質,才能讓手中的旗艦機既是規格領先、也是體驗領先。

唯一影音體驗雙料冠軍,Opensignal 權威認證的有感體驗

雖然相較於測速數據,影音體驗更貼近日常使用,但也更難量化。對此,國際權威認證 Opensignal 的「影音體驗分數」,依循 ITU 國際標準,透過真實用戶裝置在行動網路上進行影音串流的實測數據,觀察不同電信網路在實際使用情境下的表現。

簡單來說,評測聚焦三項核心指標:影片載入時間、播放期間的卡頓率,以及畫質(解析度)是否能穩定維持。使用者從開始播放到持續觀看的整體品質,分數以 0–100 呈現,分數愈高,代表在三項指標的表現愈佳。相較於單點測速,這類評測更能呈現長時間、高使用量下的網路品質。

人流情境不降速.jpg
圖/ 數位時代

而在今年最新公布的 Opensignal 評測中,台灣大哥大獲得「影音體驗」獎項唯一雙料冠軍。其中,「整體影音體驗」為全台獨得第一名,「5G 影音體驗」則與遠傳並列第一。

之所以能在影音體驗拔得頭籌,關鍵在於台灣大哥大目前是全台唯一整合 3.5GHz 頻段 60MHz 與 40MHz、形成 100MHz 總頻寬的電信業者,亦是現階段全台最大 5G 黃金頻寬配置。頻寬愈寬,代表單位時間內可傳輸的資料量愈大;在大量使用者同時進行影音串流、視訊互動的狀態下,更能維持穩定傳輸、減少壅塞發生機率。

台灣大獲權威認證,NRCA技術撐起穩定基礎

除了頻寬帶來的流量優勢,台灣大哥大也採用「NRCA 高低頻整合技術」,也就是透過高低頻協作,讓 3.5GHz 負責高速傳輸、700MHz 補強覆蓋與室內連線,改善室內深處與移動情境的訊號落差,提升連線連續性。

同時,為了讓住家、通勤動線、商圈與觀光熱點等高使用場域維持穩定表現,台灣大哥大已在全台超過213個住宅、觀光及商圈熱點完成 100MHz 布建,提升人流密集區的網路覆蓋率。

5G高速(小).jpg
圖/ dreamstime

值得注意的是,在今年的 Opensignal 評比中,台灣大哥大還拿下了「5G 語音體驗」與「網路可用率」兩項第 1 名,累計獲得 4 項獎項。這意味著不僅具備影音體驗優勢,在語音互動與連線率等關乎用戶日常應用的基礎指標,皆有亮眼成績。

尤其,隨著影音與即時互動成為新世代的工作常態,網路品質的重要性只會持續上升。無論是遠距協作所仰賴的視訊與畫面共享即時同步,內容創作對直播與即時上傳連續性的要求,或是 AI 視訊互動、即時翻譯與會議摘要等新應用,都高度依賴低延遲與穩定的資料傳輸。網路品質因此不再只是連線條件,更是支撐內容生產、協作效率與新應用落地的基礎能力,甚至直接牽動競爭力。

而台灣大哥大經 Opensignal 認證、於多項關鍵指標領先業界,不僅將成為 AI 時代的重要後盾,也讓使用者能更充分發揮高階手機的效能,把「快、穩、滑順」落實在每天的工作與生活中。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓