用聲紋辨識解決Alexa痛點,和碩童子賢:AI將重新分配政府職業
用聲紋辨識解決Alexa痛點,和碩童子賢:AI將重新分配政府職業
2018.06.09 | Amazon

和碩以「跨越極致」為主題舉辦的年度發表會,展出人工智慧、筆電跟汽車電子新應用,由董事長童子賢跟技術長黃中于一起出面。

人工智慧應用發展快速,童子賢舉農業發展上,人不用跟耕耘機比賽體力,電腦時代人不必跟電腦比賽記憶力為例,他認為工具再厲害也是工具,政府跟民間面對AI,可以將腦力粗活由工具幫忙,動腦的工作現在很多都被AI挑戰,我們必須接受,就搶奪工作機會而言,AI時代或許是政府最受到衝擊。

童子賢說,達文西機器人開刀已經很精密,但如何操作仍須專業醫生導引,人必須適應這樣的變化,未來學習、政府跟醫療業都會受到AI衝擊,挑戰現有職位的分配。

也因此,他認為政府與民間企業,一樣都要「再組織」、「再學習」,必須思考如何在AI時代、數位時代,如何很好的運用新科技,提昇生產力、改善效率。

黃中于表示,和碩將積極策略布局AI (人工智慧)、機器人、AR (擴增實境)、AIoT (人工智慧物聯),並從AI橫向延伸多元應用,利用軟硬體整合宣示迎接AOE (AI of everything)時代來臨,展出的多數產品也都已到量產階段。

IMG_4483.JPG
和碩COMPUTEX展示全新機器人,包括家用跟商用機器人海姆達爾(右)跟家用機器人AQUA。
圖/ 王郁倫

AI功能整合,語音助理實用性進階

和碩召開2018年Computex成果發表,可以觀察到持續投入人工智慧基礎研究3~4年所累積的實力,跟2017年相比,2018年展現了優異的整合度,聲控平台不只是支援Google Assistant跟Alexa,更自有技術開發能聽懂國、台語跟日語的語音辨識引擎,再結合人臉識別跟「聲波識別」技術,語音助理聽聲辨人,未來Alexa跟小孩聊天,不再會意外有「聊出5000元訂單」的惡夢。

Amazon Echo熱賣也帶來許多意外,Alexa語音助理不僅可以查詢,更可以協助上網購物,不過這個貼心的功能也傳出不少慘案,比方小孩跟Alexa聊天,大人們一個不留神,可能小孩已經於聊天中訂購了一堆東西,送到家才發現不妙!

Amica+_02.jpg
和碩開發以Google Assistant為基礎開發的Amica+多人辨識語音助理。
圖/ 和碩

第一台人臉辨識缺換帳號語音助理

然而現在這種危機或許有解,和碩開發Amica+多人辨識語音助理,只有辨識到「對的人」才可能啟動特定權限。怎麼辨識對的人?人臉辨識及聲紋辨識。

厭倦每天對語音助理Say Hi嗎?Amica+也是世界首款藉由人臉辨識進行使用者帳號切換的智慧語音助理,走到面前,語音助理就自動知道你。

Amica+多人辨識語音助理有高畫質 (1080P)螢幕跟廣視角(120FOV) Camera,整合語音助理Google Assistant與Google Service,搭配和碩自行開發的深度學習影像辨識技術,讓這款語音助理不必說「Hi~Amica」,只要走近一公尺內,面對機器,機器人可以視覺辨識自動切換對的用戶帳號提供服務。

Amica+這一年來「進修」不少課程,除了頭上的臉部辨識鏡頭可以切換家中不同成員帳號,報告Google Calendar行程安排,也可整合了FB的Messenger Bot介面,當要留言給家人,對Amica+下語音指令後,Amica+等家人返家完成臉部辨識後就會自動報告留言內容,用戶也可以在Messenger上下文字指令,命令家中的Amica+開攝影機察看家裡狀況。

一定要走到智慧音箱前做臉部辨識才能下指令嗎?Amica+也有隱藏版的功能,就是利用「聲紋辨識」,當學習家中成員的聲紋資料後,Amica+可以聽出是爸爸還是媽媽來下指令,提供個人化服務,若小孩想來下指令去電商買「娃娃屋」,只要事前限制過小孩聲紋權限,那麼小皮蛋是不可能買得成功的。

all_02.jpg
和碩開發的MARINA II語音助理可以聽懂台語,未來要教上海話也只要兩天,是和碩自主研發的語音辨識系統。
圖/ 和碩

台語也通,和碩語音助理Martina兩天學會上海話

Martina語音助理也進入第二代,相對第一年控制家電、回答天氣,這些技能跟Google與Amazon的語音助理差異不大,不過Martina一年後也精進到結合3D深度視覺與影像辨識功能,更成為和碩語音助理上唯一可以支援「中文跟台語、日語、英」等亞洲語系的語音助理平台。

2018年和碩在智慧音箱的聲控技術結合出現大幅優化,MARTINA II的多國語言溝通回應更快速,也能接近人類說話的節奏,不會類似銀行叫號「文字轉語音出現字與字之間的停頓」。

相對其他的語音助理平台多在Google Assistant或Amazon Alexa上去加值,MARTINA II則是一款純種由和碩軟體研發中心研發語音辨識技術,利用和碩自有人工智慧深度學習技術,透過神經網路(neural network)訓練,可因應客戶需要,支援多國語言語音辨識,和碩軟體研發中心主管透露,只要語言資料夠多,1萬多筆語音資料,「2天就能訓練MARTINA II去學會聽懂上海話指令」。

這個像石頭也像蛋的MARTINA語音助理,可以提供語言辨識雲給客戶,或連回和碩雲提供服務,所有的AI運算都在雲端完成。而鏡頭除可以分辨家中成員,還有3D鏡頭感測深度距離,感知使用者跟環境關連,當人走遠,播放音樂時會自動加大聲量,人走近就小聲。

聽得懂台語的MARTINA對家中長輩是好消息!和碩主管也表示,由於現代人語言複雜性高,中英混雜或中日與混雜的可能都有,因此MARTINA II也能分辨同時混和兩種以上語言的指令,比方「Hi MARTINA請幫我播放Adale的歌Hello」

IMG_4472.JPG
和碩董事長童子賢認為教育跟政府都要面對AI衝擊。圖為海姆達爾商用機器人。
圖/ 王郁倫

自走商用保全海姆達爾休息半小時就能工作9小時

海姆達爾(Heimdallr)則是一台「全時」商用二合一機器人,為什麼這樣說?因為內建電池,每充電半小時可以運作9小時,白天可以用人臉辨識及語音導覽等功能迎賓接待功能,還能幫忙送文件,晚間則可以轉為保全模式,由於日夜守護神聖任務,所以取名北歐神話中的守護神海姆達爾。

海姆達爾裡頭的心臟用的是NVIDIA 行動處理器 Jetson TX2,雲端監控後台能遠端控制、任務指派,並回報現場異常,目前,已有重要客戶採用開發中,預計下半年有機會量產。

AQUA則是家用機器人,有6軸運作配合馬達控制技術,除展現肢體靈活度,還能以環景360 度無死角的影像辨識與環境偵測,持續性分析空間中異常狀況,如: 火焰、空氣品質等,自動開啟空調或發出警報,利用卷積類神經網路(Convolutional Neural Networks,CNN)也可以分析使用者動作是否異常。

VisionUltra_02.jpg
和碩VisionUltra AR眼鏡已經跟故宮合作。
圖/ 和碩

黃中于表示,和碩推出有獨家專利的Slam自我導航功能,放在「海姆達爾(Heimdallr)」中,現場也展出居家安全監控系統Perla及電子座艙,支援V2X/LTE雙模車載資通訊系統。

和碩也展出199g全世界最輕的AR眼鏡,宣佈跟故宮合作,結合手勢操作,可以把翠玉白菜及清明上河圖真實呈現在眼前,拉近國寶藝術與人之間的距離。

往下滑看下一篇文章
AI 智慧代理人時代來臨!三大導入階段, AI 落地企業不卡關
AI 智慧代理人時代來臨!三大導入階段, AI 落地企業不卡關

生成式 AI 帶動企業數位轉型浪潮持續升溫,各界不再滿足單一任務型的 AI 應用,而是期盼 AI 能真正成為具備主動決策與多工能力的「智慧代理人」(Agentic AI),在最少人為干預的情況下,自主推進工作流程、完成複雜任務。

但企業導入AI並非一蹴可幾,而是需要對AI有正確認識,並制訂循序漸進的導入流程,才能真正發揮AI功效。在2025台灣人工智慧年會中,cacaFly 聖洋科技技術副總吳振和提出三大導入關鍵階段,深入剖析企業如何從概念驗證(PoC)階段,逐步推進到實際上線(Production),並分享實務經驗與觀察。

延伸閱讀:生成式AI可以怎麼用?cacaFly現身說法,助企業應用GCP服務智慧轉型

解鎖 Agentic AI,企業邁向多任務智慧代理

「很多公司會問,One AI 要做什麼事?但實際上,若要讓 AI 回答公司內部政策或新法條的相關問題,僅靠基礎模型並不足夠。」吳振和指出,要讓 AI 真正成為能「做事」的智慧代理人,前提是它必須理解企業內部的脈絡與知識,並即時掌握外部變動的資訊。

企業必須先釐清內部規範是否與最新法規相符,這意味著系統必須具備持續爬取與解析最新資料的能力。為此,企業必須先截取與整理內容,再建構成專屬的知識庫(Knowledge Base),確保資料品質達到可用標準後,再透過檢索增強生成(Retrieval-Augmented Generation, RAG)技術,使 AI 能夠即時動態查詢並生成符合企業語境的回答。

延伸閱讀:從資料清洗到 RAG,大型語言模型的必需品,做出專屬企業的 AI 知識庫!

吳振和強調,這是一個動態循環的過程:從資料蒐集、品質控管、知識庫建構到生成應用,每一環節都息息相關,任何一處鬆動都會影響最終產出的準確性與可信度。

cacaFly 聖洋科技技術副總吳振和
圖/ cacaFly

破除「一次到位」迷思,從驗證到落地的三大關鍵階段

許多企業對 AI 寄予厚望,因此常將 PoC 視為年度計畫的重點,希望能「一次到位」做出具體成果。但吳振和提醒,若缺乏清楚的系統工程思維,PoC 容易淪為「概念展示」,難以真正走入組織的日常營運。

他將導入 Agentic 系統工程的歷程,分為三個關鍵階段:

1.第一階段:可行性評估(Feasibility Study)
企業必須在投入資源前,先明確界定「最需要被 AI 解決的關鍵問題」是什麼,並進一步設計可量化的驗證指標。這不僅包括評估技術實作的可行性,更要從商業目標出發,釐清導入 AI 的具體使用情境、預期成效與風險邊界,如此才能確保後續模型選型與資料蒐集方向正確對齊業務需求。

2.第二階段:系統設計與驗證(Design & PoC)
在確定導入方向後,必須規劃清楚資料蒐集與整理流程,確保知識庫的內容具備正確性、完整性與時效性。吳振和特別強調,這個階段不能只追求展示效果,而應以「產品化思維」來構築 PoC,使其具備可擴充性、可維護性及安全性,才能為後續上線打下基礎。

3.第三階段:產品化與營運(Production & Operation)
當 PoC 驗證完成後,進入正式上線階段,挑戰也隨之而來。除了需要整合企業內部系統與流程,還必須建立持續監控與維運機制,確保模型表現隨時間演進不會劣化,並能快速回應法規變動或資料更新的需求。吳振和指出,這往往是最容易被低估、但也是最考驗企業組織能力的關鍵環節。

cacaFly 聖洋科技技術副總吳振和
圖/ cacaFly

建立模型優化根基,打造高品質的黃金資料集

吳振和特別強調,要讓 Agentic 系統工程真正發揮效益,企業必須先建立一套高品質的「黃金資料集」(Golden Dataset),作為模型評估與優化根基。他指出,黃金資料集的價值在於能為模型選擇與前測提供客觀依據,讓團隊能針對不同任務挑選最適合的模型,避免導入初期就誤踩方向。

同時,黃金資料集也能協助團隊辨識模型的常見錯誤與脆弱點,進而快速回應「模型飄移」(Model Drift)的風險。吳振和說明,所謂模型飄移,指的是即使模型本身未經改版,效能也可能隨著環境與資料變動而突然下降,導致原本表現良好的模型出現偏差。透過持續比對模型預測與黃金資料集結果,團隊才能即時察覺效能衰退,並進行迭代更新,確保系統長期穩定運作。

從小規模應用起步,漸進擴展至核心業務

吳振和分享,在實際輔導企業導入 AI 的經驗中,最常見的挑戰來自於「期待落差」。許多企業誤認為概念驗證(PoC)階段即可呈現完整的產品原型,然而實際情況顯示,若企業未能建立完善的資料架構與流程基礎設施,即使短期內展現亮眼成效,也難以確保長期營運的穩定性與可持續性。

也因此他建議企業在規劃 AI 導入時,應採取漸進式策略,從小規模應用場景著手,逐步擴展至核心業務領域。企業應將 PoC 定位為整體產品開發生命週期的重要環節,而非獨立的一次性專案。

AI 的導入不僅是一場技術升級,更是企業組織文化與決策流程的轉型工程。唯有從資料治理、流程優化到人才培訓同步布局,才能確保 AI 能在企業內部真正「落地生根」,創造長期商業價值,成為真正的智慧代理人。

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
一次搞懂Vibe Coding
© 2025 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓