讓人工智慧開發遊戲,人類玩家只有被虐的份
讓人工智慧開發遊戲,人類玩家只有被虐的份

日前藉著全球最大的遊戲開發大會GDC17的機會,英偉達宣布推出最新款遊戲用顯示卡GeForce GTX 1080 Ti。新顯示卡採用16納米製程Pascal架構,具備3,584個CUDA核心以及高達11GB的顯存,從紙面參數上新核彈比上一代遊戲/通用運算多用途顯示卡Titan X性能稍強一些,比自己的前輩產品GTX 1080也強了35%。

但在新核彈的喧囂之餘,PingWest關注到了英偉達在遊戲開發方面的更多主張和嘗試。 這家稱自己「All about AI」的運算技術公司,正在快速改變遊戲和AI的關係。

此AI非彼AI。在過去,遊戲AI可以指所有非玩家角色 (NPC),比如劇情中的配角、Boss和商人等,也可以再進一步,泛指所有遊戲的非玩家內容,比如作戰機制和商業系統等等。它是由人設計的。

但英偉達覺得,遊戲產業即將進入一個新的AI時代——用AI來輔助設計和開發遊戲,而且品質並不遜於人工製作。

「簡單來說,過去的AI就是規則和腳本,讓AI照著你的設計行動,再到後來有了決策樹,更先進一些。」英偉達應用深度學習研究部(Applied Deep Learning Research) 副總裁布萊恩·卡坦薩羅稱。但他認為,隨著深度學習技術突飛猛進式發展,AI可以幫助開發者生成音畫素材,甚至劇情、任務等機制性的內容。

過去兩年,英偉達已經帶來了多項基於機器學習和神經網絡的工具,以解決遊戲開發者面臨的棘手難題。舉個例子,大型遊戲的一大特點是畫面精美,但這需要美工畫師和視覺設計師巨大的精力去創作材質。受制於人員和財力,中小開發者往往在視覺質量上打了折扣,更多人選擇了矢量化,甚至更粗糙的視覺風格。

英偉達高級開發技術經理安德魯·艾德斯登展示了一項名叫2Shot的技術,讓開發者更輕鬆地從真實世界中提取材質,應用到遊戲中:只需分別打開和關閉閃光燈,用手機拍攝兩張對象材質的照片,運算機將對它們進行自動處理,幾分鐘後即可生成素材文件。

2shot-nvidia

2Shot極大降低了開發者優化材質的技術門檻,但它仍有很大的提升空間。英偉達在去年又提出了1Shot技術,採用更強大的神經網絡進行運算,只需一張照片就能生成素材,時間也降低到了數秒的時間。2Shot的生成素材質量已經達到了工業級,而1Shot的質量還有待提高,但它們已經證明了機器學習和神經網絡在遊戲開發方面的應用前景。

布萊恩·卡坦薩羅

布萊恩·卡坦薩羅

英偉達還展示了另外兩種技術,分別名為Texture Multiplier和Super-Resolution。

Texture Multiplier(材質複製器)類似於視覺特效人員常用的「材質增生」(texture mutation) 技術,最大的不同是採用了經過了大量訓練的捲積神經網絡(Convolutional Neural Network) 作為生成器,生成的效果高度接近真實,達到了肉眼難以分辨的水平。Texture Multiplier將使得美工人員可以快速製作美觀的大片面積材質,不再給人一種「你這材質複製黏貼的吧!」的感覺……

而Super-Resolution(超分辨率)則聽起來更為科幻。記不記得《神鬼認證5》裡的情節:CIA特工在雅典憲法廣場上尋找伯恩,用模糊的定格畫面,「放大、增強!」(Zoom, enhance),然後就獲得了一張特別清晰的照片,確定了目標?

img_0640

其實過去根本沒有這種高科技……至少在《神鬼認證5》拍攝期間還沒有,直到最近才有類似的出來。前不久Google的大腦團隊實現了將8×8像素分辨率的,極度粗糙和顆粒化頭像,還原成比較清晰的,達到了32×32分辨率的頭像,而英偉達也在做類似的事情。

該公司研究者採用的具體訓練方法(注意:和其他機構方法類似,可作參考),是先把大量的高清晰度照片「縮小」(downscale)到非常低的清晰度,僅保留非常有限的特徵,同時另外把這個降級過程中損失的特徵保存下來。

super-reso-nvidia

採用這種方式處理了大量的高清圖片之後,研究者獲得了海量損失掉的特徵。他們將這些特徵整理合成一個「特徵規律庫」,就像辭典一樣,意圖在於告訴神經網絡:再去「放大」 (upscale) 圖片的時候,按照這個辭典去操作。當然,具體操作起來比這個口頭敘述的流程複雜得多,這個卷積神經網絡模型需要數天的時間才能完成訓練。

在此前的測試中,Google大腦團隊的同類技術能夠成功還原90%被打馬賽克的人臉,算是一個十分驚人的成績。而英偉達則不滿足於低清晰度,希望追求更「感人」的分辨率。艾德斯登告訴 PingWest,該公司已經在實驗室中實現僅花「很快」(數秒)的時間將1K分辨率重組為4K分辨率的高清照片。

這種技術能為遊戲帶來什麼改觀?英偉達期待它能夠在未來,讓遊戲在更小容量的基礎上,顯著提高材質的清晰度和視覺效果。舉個例子:在射擊遊戲中,當玩家舉起狙擊槍,瞄準鏡裡能顯示出更清晰的遠處畫面和材質。

sniper-elite-4-hitler-scope

不光是英偉達,Google旗下的英國人工智慧技術公司DeepMind,也在考慮用神經網絡在遊戲上搞點事情——當然如果你有印象的話,過去曾經傳出人工智慧在《打磚塊》、《星際爭霸》、《毀滅戰士》乃至於圍棋上碾壓人類的消息,大多都是DeepMind搞出來的……

該公司在去年訓練了一個名叫WaveNet的人工智慧,讓運算機生成的語音和人類原聲越來越難以區分。WaveNet和過去的串聯式語音合成、參數式語音合成不同,將語音的原始數據(波性文件)細分到了以1毫秒為單位的區間,在每一個區間之間都採用遞歸神經網絡(Recurrent Neural Network) 和卷積神經網絡進行預測學習。

WaveNet 的結構演示

WaveNet的結構演示

最後, DeepMind用Google自家的TTS語音轉文字(目前世界上得分最高的該類技術)數據集進行測試,比Google TTS的得分高了10個百分點——但將Google TTS與人類原聲之間的距離縮短了一半還多。

mos2.width-1500_qoPRcsw

雖然玩遊戲的時候,基本沒人會特別仔細地聽每一句對白,但不意味著開發者應該在這方便節省。WaveNet將會成為遊戲開發者的福音,「想像一下,當你需要調整劇情的時候,可以用運算機生成配音,不必再花錢請配音演員回來重錄,甚至完全不用配音演員。」卡坦薩羅稱。

你可以到WaveNet的網站上試聽一下效果,跟真人聲音差距真的很小。

好吧,現在AI有了生成聲音、視覺材質等元素的能力,接下來呢?

就在上週,遊戲開發公司Nival宣布了一個振奮人心的消息:他們給2015年發售的在線即時戰略遊戲《閃電戰 3》開發了一個神經網絡決策AI:Boris。

在一則演示影片中,Boris顯示出了「風箏」敵方單位的能力(指吸引敵對目標,帶其到處亂跑以打亂策略的行為);還可以在明顯具有劣勢時消極應戰而非拼死頑抗,以起到保存火力的目的;當戰場中有新的敵人加入,Boris會自動分配部隊火力到不同的目標上,也會根據敵方火力級別,自動指揮士兵坐上砲台,而不是傻站在地上,用步槍拼坦克。

boris-ai

更有趣的是,當雙方對抗佔點時,Boris會選擇性忽視那些擋路的殘血敵軍,優先搶點再等待機會擊殺—— 這一特徵顯示出了Boris AI對不同獎勵(reward)級別的理解,能夠優先追求與全局獲勝關係更大的獎勵。

Nival明確表示Boris沒有使用遊戲內核的任何地方數據,只使用對玩家可見的戰場情況,每幾秒鐘進行一次決策。Boris的更多技術細節暫未公開。

在遊戲開發中應用AI技術,還有很大的想像空間。

去年,OpenAI用《俠盜獵車手5》開發出了一個名叫DeepDrive 的「自動駕駛模擬器」。由於遊戲內部的車輛行駛數據應有盡有,OpenAI發現其實可以用遊戲數據來訓練自動駕駛系統。雖然後來研究者刪除了與該模擬器有關的內容(這裡有一個Twitter上的映片演示,這項技術所屬的專案官網還在),該事件還是令人印象深刻,它賦予了人們審視AI和遊戲之間關係的新視角。

像《俠盜獵車手》這樣的開放世界遊戲,開發公司花費多年時間設計了大量的任務關卡,但最快的玩家不出幾十個小時就能玩完全部的內容,繼而希望獲得更多的內容。然而開發公司要花更多精力在下一款遊戲上,無暇顧及上一代(實際上開發公司R星的做法是用一個相對較小規模的團隊維護遊戲,繼續添加新的在線遊戲模式)——未來,AI會不會獲得生成任務、關卡、劇情的能力,以至於可以獨立完成一個完整的遊戲?

卡坦薩羅認為那樣的未來會很棒,但應該只存在於設想階段,「 我覺得設計關卡和任務最難的地方在於,你怎樣能讓新關卡和任務足夠有趣,這是目前AI還不能取代設計師的地方。你可以讓AI生成對白,生成材質,但將對白、視覺、機制和劇情進行有序、有趣的拼接,它還做不到。我想可能有些幽默只有人懂。但我可以想像AI 未來能夠輔助設計師更快推出新的關卡和任務,那很將令人期待。」

聊到這裡,我倒是有點擔心了。

你說,AI設計的遊戲,會不會把玩家虐成狗?沒準AI早就想在模擬環境裡先感受一下,取代和虐殺人類是一種什麼樣的感覺吧……?

本文授權轉載自:PingWest

關鍵字: #Nvidia
往下滑看下一篇文章
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作
影音體驗成行動網路新戰場!Opensignal 揭台灣大哥大奪「雙料冠軍」,連網穩定撐起高負載影音與 AI 協作

現代人手機不離手,通勤時滑短影音、午休追串流影劇、下午開視訊會議,網路影音應用成為工作與生活的普遍情境。然而,一旦畫面卡頓、畫質不穩,或聲畫不同步,使用體驗立刻打折,甚至影響工作效率與專業判斷。

也因此,網路品質不再只是「快不快」的問題,更關乎能否在高使用量的日常情境下,維持穩定、連續的表現;對此,第三方評測也採用更貼近使用者情境的方式衡量網路體感。而 Opensignal 最新報告指出,台灣大哥大在影音體驗相關項目是業界唯一同時拿下「影音體驗」與「5G 影音體驗」雙項獎項的電信商,其中,關鍵的差異是什麼?

為何「影音體驗」是網路品質的關鍵指標?

愈來愈多消費者入手旗艦機,追求的不只是硬體規格,還有流暢的 AI 應用與多工協作。然而,無論是視訊即時翻譯或雲端會議,這些高階功能都有一個共同前提:網路必須穩定。一旦網路品質不佳導致畫質下降或音畫不同步,旗艦級的 AI 功能將形同虛設。

這也意味著,檢驗網路價值的標準已經改變。如今,不能只看單點測速的瞬間峰值,更重要的是高負載情境下的耐力表現。因此,比起單點測速,影音體驗會是更完整的測試標準,直接挑戰了網路在室內深處、移動途中或人潮聚集時的網路實力;而唯有在長時間串流下依然不卡頓、不降畫質,才稱得上是高品質的連線。

換言之,隱身在硬體背後的電信商,才是發揮旗艦機性能的關鍵;唯有透過最佳網路品質,才能讓手中的旗艦機既是規格領先、也是體驗領先。

唯一影音體驗雙料冠軍,Opensignal 權威認證的有感體驗

雖然相較於測速數據,影音體驗更貼近日常使用,但也更難量化。對此,國際權威認證 Opensignal 的「影音體驗分數」,依循 ITU 國際標準,透過真實用戶裝置在行動網路上進行影音串流的實測數據,觀察不同電信網路在實際使用情境下的表現。

簡單來說,評測聚焦三項核心指標:影片載入時間、播放期間的卡頓率,以及畫質(解析度)是否能穩定維持。使用者從開始播放到持續觀看的整體品質,分數以 0–100 呈現,分數愈高,代表在三項指標的表現愈佳。相較於單點測速,這類評測更能呈現長時間、高使用量下的網路品質。

人流情境不降速.jpg
圖/ 數位時代

而在今年最新公布的 Opensignal 評測中,台灣大哥大獲得「影音體驗」獎項唯一雙料冠軍。其中,「整體影音體驗」為全台獨得第一名,「5G 影音體驗」則與遠傳並列第一。

之所以能在影音體驗拔得頭籌,關鍵在於台灣大哥大目前是全台唯一整合 3.5GHz 頻段 60MHz 與 40MHz、形成 100MHz 總頻寬的電信業者,亦是現階段全台最大 5G 黃金頻寬配置。頻寬愈寬,代表單位時間內可傳輸的資料量愈大;在大量使用者同時進行影音串流、視訊互動的狀態下,更能維持穩定傳輸、減少壅塞發生機率。

台灣大獲權威認證,NRCA技術撐起穩定基礎

除了頻寬帶來的流量優勢,台灣大哥大也採用「NRCA 高低頻整合技術」,也就是透過高低頻協作,讓 3.5GHz 負責高速傳輸、700MHz 補強覆蓋與室內連線,改善室內深處與移動情境的訊號落差,提升連線連續性。

同時,為了讓住家、通勤動線、商圈與觀光熱點等高使用場域維持穩定表現,台灣大哥大已在全台超過213個住宅、觀光及商圈熱點完成 100MHz 布建,提升人流密集區的網路覆蓋率。

5G高速(小).jpg
圖/ dreamstime

值得注意的是,在今年的 Opensignal 評比中,台灣大哥大還拿下了「5G 語音體驗」與「網路可用率」兩項第 1 名,累計獲得 4 項獎項。這意味著不僅具備影音體驗優勢,在語音互動與連線率等關乎用戶日常應用的基礎指標,皆有亮眼成績。

尤其,隨著影音與即時互動成為新世代的工作常態,網路品質的重要性只會持續上升。無論是遠距協作所仰賴的視訊與畫面共享即時同步,內容創作對直播與即時上傳連續性的要求,或是 AI 視訊互動、即時翻譯與會議摘要等新應用,都高度依賴低延遲與穩定的資料傳輸。網路品質因此不再只是連線條件,更是支撐內容生產、協作效率與新應用落地的基礎能力,甚至直接牽動競爭力。

而台灣大哥大經 Opensignal 認證、於多項關鍵指標領先業界,不僅將成為 AI 時代的重要後盾,也讓使用者能更充分發揮高階手機的效能,把「快、穩、滑順」落實在每天的工作與生活中。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
進擊的機器人
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓