輝達釋出開源Audio2Face!AI虛擬人注入「靈魂」,說話語氣逼真、嘴型可精準同步
輝達釋出開源Audio2Face!AI虛擬人注入「靈魂」,說話語氣逼真、嘴型可精準同步

NVIDIA 宣布開放旗下生成式 AI 面部動畫技術「Audio2Face」,一次釋出完整模型、開發工具與訓練框架,目標加速 AI 虛擬人角色在遊戲、動畫與 3D 應用中的落地整合。

這項技術可以根據輸入音訊,自動解析語音中的音素、語調與情感等聲學特徵,即時驅動虛擬角色產生自然口型與情緒表情,並支援多語言精準同步。目前已在多款遊戲中實際應用,開發團隊表示將持續推廣至更多創作場景。

〉點我試玩

講話就會「動臉」!AI 虛擬人互動更逼真

Audio2Face 最大特點在於可根據真實語音訊號即時生成動畫表情,具備兩種模式:

  • 離線渲染: 適用於影片與遊戲劇情設計,可透過預錄音訊生成高品質動畫
  • 即時串流處理: 適合用於虛擬主播、AI 客服等互動情境,實現同步語音與面部動作

這讓過去耗時的「口型同步」與「表情製作」流程變得更輕量,不只省下人力成本,也讓虛擬角色表現更自然真實。

NVIDIA Audio2Face
圖/ NVIDIA

目前已有多家遊戲公司將 Audio2Face 納入開發流程:

  • Survios 工作室: 在《異形:俠盜入侵進化版》中導入 Audio2Face,讓角色能自然對話,口型與語調高度一致
  • Farm 51 團隊: 於《車諾比人2:禁區》使用該技術,自動生成高精度面部動畫,大幅縮短製作時間、提升玩家沉浸感

Farm 51 創意總監 Wojciech Pazdur 更形容這項技術是「一場動畫產業的革命性突破」。

開源推動創作自由,目標建立虛擬角色新標準

NVIDIA 此次釋出的不只是模型本體,還包含:

  • 完整 SDK 工具包
  • 可自訂訓練流程的框架
  • 開放授權使用條款

開發者、動畫工作者或遊戲設計師,都能更靈活將 Audio2Face 整合到自己建構的虛擬人、NPC、數位角色中,推動下一波虛擬角色互動體驗升級。

延伸閱讀:解密黃仁勳的AI作戰藍圖:為何對手免費也贏不了?輝達會一直成長下去?
輝達落腳北士科恐破局?「MOU失效」藏3方角力:發生什麼事?美事一樁為何卡關?

本文授權轉載自《T客邦》

責任編輯:蘇柔瑋

關鍵字: #Nvidia

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓