重新思考創新(一):低處的果實摘完怎麼辦?如果科技創新的「弊」開始與「利」對稱
重新思考創新(一):低處的果實摘完怎麼辦?如果科技創新的「弊」開始與「利」對稱

過去300年,科技文明發展的軸向大約循著三條軌跡。

在原子領域(物質世界)的科技創新,如火車、汽車、飛機的發明,改變了人類移動的方式。電報、電話、收音機、電視,增加了人與人之間通訊的選項。從此以後,人與空間的關係產生了重大的典範轉移。

在細胞領域(生物世界)的創新遠為緩慢,從盤尼西林的發明到今天,還不到100年,但在這100年間,人類平均壽命增加了25年,地球人口從20億成長到70億,這都歸功於物質生活條件的改善和醫療水準的進步。

位元領域(概念世界)的科技發明起步更晚,但後勁十足。由於計算能力的進步,以工具開發工具,科技發展的速度開始呈指數成長,加上數位帝國企業富可敵國的人才和財富,連帶推動了原子和細胞領域的創新速度。

雖然多數人同意科技都是兩面刃,隨其利必有其弊,但大體而言,過去300年的創新,無論在原子、細胞或位元領域,多是利多於弊,或利為顯性,弊為隱形,利與弊並不對稱。這些輝煌的科技成就養成了多數人「科技至上」的樂觀態度,認為即使科技創新有其弊患,解決的方法唯有靠更多更完善的創新。

這種無條件擁抱科技的樂觀態度,可以稱之為「科技至上主義」。擁護者以矽谷的新創公司為代表,其中最具指標性的人物便是臉書的執行長祖克柏。

逐漸失控的「資訊戰」

100年前,科技創新的利與弊具有顯著的不對稱性,利多弊少,擁抱科技自然義無反顧。 例如飛機失事固然造成無可挽回的災難,但沒人因此拒絕搭機旅行的快速方便。80年前,進入核能科技發展的領域時,科學家開始有了憂慮,核能災難一旦發生,其後果比空難事件嚴重千萬倍。等到最近3D製造技術的進步,雖然增加了少量多樣製造的彈性,但網路上任何人可以免費下載致命槍枝(例如AK47)的3D打印檔案,科技的利弊指針又向弊的方向跳動了一格。

有一天,如果創新帶來的貢獻和風險對稱,利與弊相當,創新還有什麼意義? 這一天也許還沒有到來,但若觀察最近科技進展帶來的威脅,也該開始杞人憂天了。

2011年時,臉書被視為開啟「阿拉伯之春」的功臣,結果春天未曾來臨,反倒提高了許多國家的警覺,開始建立龐大的網軍。美國安全局(National Security Agency)一年經費100億美金,中國早早便成立了人民解放軍61398部隊,2017年台灣在陸海空軍之外也成立了第四軍種「資通電軍」。未來資訊戰爭的對抗,必然像當年核武競賽,衝突只會升高,不會降低。

資訊戰雖然不像核武具有毀滅性的殺傷力,卻對擾亂社會秩序、製造族群衝突具有更大的破壞力。 控制核武的擴散,國際間還有談判或制裁的機制,至於如何節制跨國的資訊戰,目前還沒有適當的下手解決之道。

由於互聯網的分散性,以及民主國家對言論自由的保障,許多具有強烈意識情結又擁有龐大財務資源的個人,也能結黨造勢。例如幾個月前被臉書查出散佈煽動性言論的英國數據公司劍橋分析(Cambrdige Analytica),其後台財務支持者便包括美國十億級富翁 Robert Mercer。已離職的川普政府策略長Steve Bannon是一位極右份子,他曾經擔任劍橋分析的副總裁。經過英國記者Carole Cadwalladr的深入調查,已經證明劍橋分析跟英國脫歐運動、2016年川普競選、以及俄羅斯參與攪和都脫離不了關係。可見在資訊的無限傳播能力之下,一人之力,已經可以動搖國本。

像臉書、Instagram、Twitter, Snap這些社群媒體平台,99.999%的使用者都在免費享受它的便利,跟親近的家人朋友即時互通訊息,也造就了臉書這個市值5千億美金的數位帝國。然而為了這些須臾片刻的溫馨感受,民主社會需要付出多大的代價? 如何能夠透過科技,設計出令人放心的安全閥,預防各種已知或未知的威脅?

如果AI不再乖乖聽令

由於硬體計算能力的飛速進步,人工智慧的威脅也隨之接近引爆點。 姑且不論人工智慧對就業市場帶來的根本衝擊,擁抱AI的樂觀主義者,只看到它種種可以協助解決複雜問題的潛力,卻忽略了一個弔詭:解決問題的能力越強,製造問題的能力也越強。

問題的產生有兩個來源。一是具有破壞意圖的人存心利用。 這些人躲在暗處,不必遵守道德或法律的規範,他們操作的空間遠比循規蹈矩一心想用AI為人類造福的人士更為寬廣,意志也更為堅定,不達到破壞的目的,絕不輕易中止。

第二個來源是難以完全避免的內建系統失誤。 AI 不免需要建立系統模型,設想種種可能發生的狀況,設計演算法(algorithm),再進行模擬測試。但在黑天鵝的極端狀況下,AI將如何反應便難以預測,不無可能造成災難。事實上,當我們希望機器的人工智慧(AI)越高,人類智慧(HI)參與的成份便越低;HI成份越低,便越不能預測AI的反應,也可以說,AI的反應也就越難被人類的尋常智慧所預測了。

AI加上了物聯網(IOT),自動化或智能化是未來十年必然的潮流。無論工業4.0、機器人、無人駕駛交通工具(車、船、或是空中計程車)、智能家庭、智慧城市,都必須靠環環相扣的一連串自動反應才能順利運作。當一切正常時,人類也省了所有的心思,萬事都有機器人或人工智慧打點,但中間如果有一個環節出了小差錯,整個系統也可能為之完全癱瘓。換句話說,越是自動化,系統故障的代價越大,重新啟動的成本越高。

游擊隊遠比正規軍難以殲滅,恐怖份子永遠不會被武力剷除。當取得破壞工具的門檻越低,恐怖份子就更容易得逞,即使實質傷害不大,社會卻經常籠罩在恐懼的陰影之下。試想:一架可以飛行一個小時的小型無人機,裝備了精準的GPS定位和人臉辨識軟件,攜帶致命武器,在幾公里之外便可以執行殺人任務。這已經不是科幻小說,可是現代社會準備好了嗎?可有適當的反制機制?

做好事簡單,「不做壞事」卻很難?

雖然風險難以掌控,在激烈競爭和經濟誘因之下,創新不可能停滯。因此有必要重新思考創新:21世紀的創新,跟前300年的創新,會有什麼不同?

首先我們必須揚棄科技至上主義,承認低垂的科技果實已經被摘完,剩下位在高處的果實,有的可能苦澀,有的摘取成本太高,有的可能具有「始料未及的後果」(unintended consequences)。 因此在開發技術之前,應該戒慎恐懼,不能只將目光焦點放在創新的利益,而應該儘早加入各種機會成本和外部成本(external cost)的計算。

但還有一項後果很難放在成本估算之內,那就是災難性系統失敗的後果,以及如何預防其發生。在系統設計上,可以將之想像為機器人三定律的第一條:「機器人永遠不會傷害人類」,如果能夠將類似的原則內建在系統內,在任何災難性毀滅發生前,有一個自我癱瘓的功能,便可以避免災難發生。然而這將對創新的設計造成極大的挑戰,而且可能增加難以負擔的生產及營運成本。

另外,有些科技創新的功能是修復、縫合、再生,有些是破壞、傷害、消耗。有些科技創新可以增進人與人之間的了解,有些卻被用來在人群間製造分化,樹立高牆。有些創新能夠醫治癒合,有些卻在殺傷毀滅。未來的創新競爭裡,如果我們將研發的資源導向在前者,「多做好事」(doing more good),自然會「少做壞事」(doing less harm)。

然而在巨大商業利益以及贏者全拿的競爭環境下,「少做壞事」比「多做好事」更為困難。谷歌從創業開始便標榜「不做惡事」(Don't be evil),但在今年五月已悄悄將這個口號從公司員工行為手冊中拿掉。3個月後,谷歌便宣佈重回中國,提供特別版的搜索引擎。

2015年,印裔美籍作家Anand Giradharadas曾經在美國老牌人文智庫阿斯本研究院(Aspen Institute)給了一個演講,提出了美國大企業或是企業家雖然爭相在企業外部做好事,然而在企業內卻吝於做該做的事。例如有企業家捐錢給慈善組織訓練非洲年輕人編寫程式,卻不願在公司內雇用弱勢員工。食品公司捐錢給小學,卻大力行銷導致孩童肥胖的垃圾食物。

Anand Giradharadas將這種寧願多做好事、不肯承諾少做壞事的企業共同心態稱為「阿斯本共識」(Aspen Consensus)。為什麼有這種心態?原因很簡單,做好事容易,因為競爭獲勝後才需付出,少做壞事難,因為擔心失去競爭力。

阿斯本共識既然是企業經營的共同心態,企業的創新自然根據同樣的指導原則,只看到創新帶來的商業機會,卻對技術散播之後的可能弊患閉上一隻眼睛。長此以往,創新的利與弊恐怕會逐漸趨向平衡。

從事創新者,有人為了經濟利益,有人為了改變世界,有人純粹為了證明「我可以辦到」。無論動機為何,21世紀的科技創新已經進入深水區,只有開展新的思維,一面對創新之利,力求跳躍式的進步,一面對創新之弊,如臨深淵如履薄冰,不冒任何難以承擔的風險,這樣才能拉大創新利與弊的比例。否則,如果利弊相當,這樣的創新並不令人期待。

本文由鄭志凱授權轉載自其獨立評論@天下專欄。

《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。

(觀點文章呈現多元意見,不代表《數位時代》的立場。)

往下滑看下一篇文章
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路
從智慧助手到自主代理:博弘雲端如何帶領企業走上 AI 實踐之路

「代理式 AI 」(Agentic AI)的創新服務正在重新塑造企業對AI的想像:成為內部實際運行的數位員工,提升關鍵工作流程的效率。代理式AI的技術應用清楚指向一個核心趨勢:2025 年是 AI 邁向「代理式 AI」的起點,讓 AI 擁有決策自主權的技術轉型關鍵,2026 年這股浪潮將持續擴大並邁向規模化部署。

面對這股 AI Agent 浪潮,企業如何加速落地成為關鍵,博弘雲端以雲端與數據整合實力,結合零售、金融等產業經驗,提出 AI 系統整合商定位,協助企業從規劃、導入到維運,降低試錯風險,成為企業佈局 AI 的關鍵夥伴。

避開 AI 轉型冤枉路,企業該如何走對第一步?

博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題、生成內容的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工,應用場景也從單一任務延伸至多代理協作(Multi-Agent)模式。

「儘管 AI 前景看好,但這條導入之路並非一帆風順。」博弘雲端技術維運中心副總經理暨技術長宋青雲綜合多份市場調查報告指出,到了 2028 年,高達 70% 的重複性工作將被 AI 取代,但同時也有約 40% 的生成式 AI 專案面臨失敗風險;關鍵原因在於,企業常常低估了導入 GenAI 的整體難度——挑戰不僅來自 AI 相關技術的快速更迭,更涉及流程變革與人員適應。

2-RD096270.jpg
博弘雲端事業中心副總經理陳亭竹指出,AI 已經從過去被動回答問題的智慧助手,正式進化為具備自主執行能力、可跨系統協作的數位員工。面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時加速 AI 落地。
圖/ 數位時代

正因如此,企業在導入 AI 時,其實需要外部專業夥伴的協助,而博弘雲端不僅擁有導入 AI 應用所需的完整技術能力,涵蓋數據、雲端、應用開發、資安防禦與維運,可以一站式滿足企業需求,更能使企業在 AI 轉型過程中少走冤枉路。

宋青雲表示,許多企業在導入 AI 時,往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。

轉換率提升 50% 的關鍵:HAPPY GO 的 AI 落地實戰路徑

博弘雲端這套導入方法論,並非紙上談兵,而是已在多個實際場域中驗證成效;鼎鼎聯合行銷的 HAPPY GO 會員平台的 AI 轉型歷程,正是其最具代表性的案例之一。陳亭竹說明,HAPPY GO 過去曾面臨AI 落地應用的考驗:會員資料散落在不同部門與系統中,無法整合成完整的會員輪廓,亦難以對會員進行精準貼標與分眾行銷。

為此,博弘雲端先協助 HAPPY GO 進行會員資料的邏輯化與規格化,完成建置數據中台後,再依業務情境評估適合的 AI 模型,並且減少人工貼標的時間,逐步發展精準行銷、零售 MLOps(Machine Learning Operations,模型開發與維運管理)平台等 AI 應用。在穩固的數據基礎下,AI 應用成效也開始一一浮現:首先是 AI 市場調查應用,讓資料彙整與分析效率提升約 80%;透過 AI 個性化推薦機制,廣告點擊轉換率提升 50%。

3-RD096215.jpg
左、右為博弘雲端事業中心副總經理陳亭竹及技術維運中心副總經理暨技術長宋青雲。宋青雲分享企業導入案例,許多企業往往因過度期待、認知落差或流程改造不全,導致專案停留在測試階段,難以真正落地。這正是博弘雲端存在的關鍵價值——協助企業釐清方向,避免踏上產業內早已被證實「不可行」的方法或技術路徑,縮短從概念驗證到正式上線的過程,讓 AI 真正成為可被信賴、可持續運作的企業戰力。
圖/ 數位時代

整合 Databricks 與雲端服務,打造彈性高效的數據平台

在協助鼎鼎聯合行銷與其他客戶的實務經驗中,博弘雲端發現,底層數據架構是真正影響 AI 落地速度的關鍵之一,因與 Databricks 合作協助企業打造更具彈性與擴充性的數據平台,作為 AI 長期發展的基礎。

Databricks 以分散式資料處理框架(Apache Spark)為核心,能同時整合結構化與非結構化資料,並支援分散式資料處理、機器學習與進階分析等多元工作負載,讓企業免於在多個平台間反覆搬移資料,省下大量重複開發與系統整合的時間,從而加速 AI 應用從概念驗證、使用者驗收測試(UAT),一路推進到正式上線(Production)的過程,還能確保資料治理策略的一致性,有助於降低資料外洩與合規風險;此對於金融等高度重視資安與法規遵循的產業而言,更顯關鍵。

陳亭竹認為,Databricks 是企業在擴展 AI 應用時「進可攻、退可守」的重要選項。企業可將數據收納在雲端平台,當需要啟動新型 AI 或 Agent 專案時,再切換至 Databricks 進行開發與部署,待服務趨於穩定後,再轉回雲端平台,不僅兼顧開發效率與成本控管,也讓數據平台真正成為 AI 持續放大價值的關鍵基礎。

企業強化 AI 資安防禦的三個維度

隨著 AI 與 Agent 應用逐步深入企業核心流程,資訊安全與治理的重要性也隨之同步提升。對此,宋青雲提出建立完整 AI 資安防禦體系的 3 個維度。第一是資料治理層,企業在導入 AI 應用初期,就應做好資料分級與建立資料治理政策(Policy),明確定義高風險與隱私資料的使用邊界,並規範 AI Agent「能看什麼、說什麼、做什麼」,防止 AI 因執行錯誤而造成的資安風險。

第二是權限管理層,當 AI Agent 角色升級為數位員工時,企業也須比照人員管理方式為其設定明確的職務角色與權限範圍,包括可存取的資料類型與可執行的操作行為,防止因權限過大,讓 AI 成為新的資安破口。

第三為技術應用層,除了導入多重身份驗證、DLP 防制資料外洩、定期修補應用程式漏洞等既有資安防禦措施外,還需導入專為生成式 AI 設計的防禦機制,對 AI 的輸入指令與輸出內容進行雙向管控,降低指令注入攻擊(Prompt Injection)或惡意內容傳遞的風險。

4-RD096303.jpg
博弘雲端技術維運中心副總經理暨技術長宋青雲進一步說明「AI 應用下的資安考驗」,透過完善治理政策與角色權限,並設立專為生成式 AI 設計的防禦機制,降低 AI 安全隱私外洩的風險。
圖/ 數位時代

此外,博弘雲端也透過 MSSP 資安維運託管服務,從底層的 WAF、防火牆與入侵偵測,到針對 AI 模型特有弱點的持續掃描,提供 7×24 不間斷且即時的監控與防護。不僅能在系統出現漏洞時主動識別並修補漏洞,更可以即時監控活動,快速辨識潛在威脅。不僅如此,也能因應法規對 AI 可解釋性與可稽核性的要求,保留完整操作與決策紀錄,協助企業因應法規審查。

「AI Agent 已成為企業未來發展的必然方向,」陳亭竹強調,面對這樣的轉變,企業唯有採取「小步快跑、持續驗證」的方式,才能在控制風險的同時,加速 AI 落地。在這波變革浪潮中,博弘雲端不只是提供雲端服務技術的領航家,更是企業推動 AI 轉型的策略戰友。透過深厚的雲端與數據技術實力、跨產業的AI導入實務經驗,以及完善的資安維運託管服務,博弘雲端將持續協助企業把數據轉化為行動力,在 AI Agent 時代助企業實踐永續穩健的 AI 落地應用。

>>掌握AI 應用的新契機,立即聯繫博弘雲端專業顧問

登入數位時代會員

開啟專屬自己的主題內容,

每日推播重點文章

閱讀會員專屬文章

請先登入數位時代會員

看更多獨享內容

請先登入數位時代會員

開啟收藏文章功能,

請先登入數位時代會員

開啟訂閱文章分類功能,

請先登入數位時代會員

我還不是會員, 註冊去!
追蹤我們
2026 大重啟
© 2026 Business Next Media Corp. All Rights Reserved. 本網站內容未經允許,不得轉載。
106 台北市大安區光復南路102號9樓