人工智慧——這個象徵著過去又同時指向未來的科學,再過去60年,經歷無數應用場景切換,每次都掀起前所未有的高峰,到底我們即將進入的AI時代會是什麼樣貌?
1 人工智慧經濟席捲全球


如果說現在是「互聯網+」時代,那麼下一個盛世就是「AI+」的時代,人工智慧(AI)技術大量商業化的時代到來。未來人工智慧將是所有產業的「靈魂」,人工智慧技術讓物件有了人性,成為各產業的「基礎設施」,就像我們的水電交通設施與網路的概念。
「有了人工智慧,我們很快地便不用再寫程式了,因為人類會訓練電腦,就像人訓練海豚、狗或人類自己一樣!」《連線》(WIRED)5月刊封面故事以「程式的終結!」如此駭人的命題開場,探討人工智慧對未來社會與科技行業的影響;人工智慧已經是個被討論、研究近50年的老議題,1960年代有第一次熱潮,然後進入寒冬,1980年代第二次熱潮,很快再次進入寒武紀;連續數次攻頂的失敗讓研究學者很氣餒、懷疑論盛行,但自從深度學習在近年有了突破性進展,加上Google以人工智慧打造的AlphaGo圍棋機器人擊敗了韓國九段圍棋棋王李世乭的經典一役,向世人證明了人工智慧領域的顛覆性創新,一瞬間各界風向逆轉,大廠相繼敲鑼前進;Google率先喊出「AI First」,Facebook也在2016年年度開發者會議F8宣示,將人工智慧列為下一個十年內公司發展的三大方向之一;微軟、IBM也分別以微軟研究院(Microsoft research Academy,MSRA)、華生研究中心(Watson Research Center)投入此一研究領域超過十年以上,更分別以Cortana、Watson產品化迎向市場,蘋果也透過併購、內部研究等方式瘋狂投入,將購併後推出的語音助理Siri API推廣到自己iOS平台上的開發者。
點圖可放大

亞洲矽谷計畫遺失的版圖:AI
因此各國紛紛開始制定政策與計畫迎接AI+的未來,2013年,歐盟啟動10億歐元「人類腦計畫」;同年,美國宣布啟動45億美元的「腦計畫」,日本提出「超智慧社會」,然而,台灣行政院「亞洲矽谷」的百億元預算案,主要為生技、能源與物聯網等產業,卻完全沒有提到作為這些產業底層最重要的技術──人工智慧。

創新工場創辦人李開復發表了《AI技術處在黃金時代》一文。他指出在人工智慧時代,需要的就是人工智慧科學家搭配面向企業市場的銷售。「人工智慧科學家可能學會銷售,但是銷售專家可學不會人工智慧技術。最理想的是有兩個人能夠一起實現目的。」既然人工智慧科學家創業黃金時期來臨,那台灣人工智慧科學家在哪裡呢?有沒有辦法讓人工智慧技術成為台灣進攻世界舞台的利器?
台灣有很多在國際間富有盛名的人工智慧科學家,培養出很多學有專精的人才。「以台大來說,林智仁、林守德和林軒田三位教授帶領的研究團隊,在2010年到2013年間,拿下數據挖掘研究領域的國際頂級賽事KDD-Cup的六個世界冠軍。林智仁所開發機器學習開發軟體LIBSVM軟體被國際廣泛使用。」沛星互動科技(Appier)首席資料科學家林軒田指出。「台灣人工智慧領域學術表現雖不比美國與中國,但在亞洲表現並不比日本差,許多學者在TOP Conference發表研究論文的品質甚至超越日本。」成大資工助理教授胡敏君指出。Google AlphaGo 打敗南韓九段棋王李世乭的主要開發者之一黃士傑也是台師大培養出來的博士。

台灣雖有世界頂尖人才,卻缺乏世界級的產業舞臺。「台灣學術界在人工智慧上的研究成果跟上國際腳步,反而是台灣的產業界太保守了,沒有投入資源,發展落後全球。也沒有提供舞台給人才發揮。」今年2月台大副校長陳良基出席一場人工智慧記者會時直言。
「華碩,宏碁與HTC等都有發展人工智慧,但非人工智慧大廠,而鴻海還是以軟體銀行代工為發展策略,若不算NVIDIA,台灣不算有人工智慧大廠。」集邦科技拓墣產業分析師苗議丰擔心,在人工智慧時代台灣還是擺脫不了低毛利的硬體製造代工模式。相較這些硬體大廠,台灣軟體公司趨勢科技深耕人工智慧較久,六年前就開始研發機器學習在信件連結、檔案與垃圾郵件上。
AI技術IC化,台灣有機會扮要角
眼看臺灣的硬體大廠投入緩慢,看似將要錯過這波產業發展機會,Google台灣董事總經理簡立峰卻對此有不同的見解,對臺灣產業在AI+時代的競爭力充滿信心。「人工智慧可說是台灣軟硬體整合最好機會,尤其整合各種成熟應用人工智慧的創新技術,結合臺灣IC設計與半導體製造優勢,全世界沒幾個國家的產業環境,有能力很快把『AI技術整合IC化』。」簡立峰說。

這幾年,軟體與服務的數位經濟中當紅的就是電子商務,但台灣的硬體業與電子商務很難結合,現在的創新方向若是做人工智慧、機器學習等等演算法的技術應用,對臺灣的硬體製造、晶片設計廠就有整合上的機會。舉例而言,有許多人工智慧或機器學習的演算法有許多成熟的應用,例如指紋、文字、圖像甚至聲音辨識,這些辨識需要應用到大量的演算,透過終端的一般晶片計算或將資料透過網路傳輸到雲端計算都需要大量的耗能,損耗終端裝置的電能,也讓使用者經驗受挫;如果可以將相對成熟的演算法包成特定的系統晶片(System on Chip,SOC),不但可以降低終端裝置的耗電量,也可增加使用者經驗,這就是臺灣大廠可以利用本身硬體技術,把人工智慧應用的演算系統化、晶片化的重要方向。
「最直接的方式就是鼓勵新創,且著重於技術創新,而非只是商業模式新創。科學家要想商業模式,還得當營運長、總經理,身兼數職容易失敗,專注技術就有成功機會。」簡立峰指出。
沛星互動科技將人工智慧技術和大數據運用在跨螢數位廣告行銷解決方案及即時競價RTB技術,是亞洲第一家將AI運用在跨螢技術的公司,在種子輪、A輪、B輪募資總計已獲得3千萬美元(約10億元新台幣)。「Appier的核心理念是『Making AI Easy』。 以人工智慧技術為基礎,幫助企業在跨螢世代更有效地地觸及目標消費者。平台不只應用在行銷廣告,未來也可能跨足金融、教育、醫療等領域。」林軒田指出。

需要重量級人士登高一呼
不過,從全球競爭角度來看,目前台灣在人工智慧領域的創新爆發力還是不夠,根據《數位時代》的2016年創業大調查,台灣332位創業家中,有46.6%認為未來三年內人工智慧是重要發展方向,但有80.4%創業公司並沒有用人工智慧研發產品,缺乏人才與資金,是創業家在發展人工智慧技術時最大的挑戰。


「任何一個傳統產業都要加上網路才會產生大數據,才會產生人工智慧。」這是鴻海創辦人郭台銘的看法,但趨勢科技技術專家周存貹指出,台灣對於數據應用的警戒心很強,過度強調個人資訊的保護與隱私,這樣將會抑制人工智慧發展。「台灣需要有像馬斯克(Elon Musk)這樣的產業重量級人士登高一呼,大家一起開放。」清華大學教授孫民則指出,美國在五年前,也沒有形成人工智慧產業,但美國夠開放,軟體業發達,論文交流平台加上人才流動快,因此有了現在成果。

沒有跟上網路潮流的台灣,在人工智慧時代又能否抓到機會,在全球版圖站穩腳步,扳回一城呢?與其擔心人工智慧發展最後搶走了工作機會,害怕大失業潮,不如正面迎戰,創造新的人工智慧機會,才是台灣這個科技島該有的心態。

2 人工智慧三大關鍵技術


人工智慧(Artificial Intelligence)的研究,過去60多年來從未停歇,而今總算有了不凡的突破,從AlphaGo到智慧語音助理、自動駕駛技術等,無疑捕捉了無數人們的注意力,宣告著劃時代的科技盛世已經到來。
1950年,圖靈在他名為〈運算機器與智慧(Computing Machinery and Intelligence)〉的論文裡提問:「機器能思考嗎?(Can Machine Think?)」,挑戰了人類對計算機智慧的想像。圖靈認為人們會首先流於爭執機器與思考的定義,卻沒有辦法很精確地討論問題核心:「機器會有智慧嗎?」
由於機器智能難以確切定義,圖靈在該論文首次對如何判定機器具有智慧,提出了著名的「圖靈測試」:如果機器與人類進行非面對面(例如在中間以布幕隔離)對話(例如使用文字訊息),人類卻無法辨認出對方是機器,那麼這台機器就具有智慧。圖靈測試無論在當時或現代,對於人工智慧研究而言都是重要且相對嚴謹的研究提案,後續許多業界與學界的研究都企圖挑戰圖靈測試:如1966年麻省理工學院人工智慧研究室的約瑟夫.維森鮑姆(Joseph Weizenbaum),以字串比對自動回覆的方式所開發出的聊天機器人ELIZA;或到2014年,英國雷丁大學(University of Reading)重磅宣布其所開發出的Eugene,已經通過測試,但後來被質疑標準有誤。
其實,人工智慧一詞直到1956年,才在美國新罕布夏州一場為期兩個月的研究工作坊「達特茅斯暑期人工智慧研究計畫(The Dartmouth Summer Research Project on Artificial Intelligence)」上,由負責組織會議的電腦高階語言LISP之父約翰・麥卡錫(John McCarthy)正式定名。這場工作坊所討論的問題:「計算機、自然語言處理、神經網絡、計算理論、抽象化與隨機創造」後來都成為人工智慧研究發展的重要領域,而達特茅斯會議也因此成為人工智慧領域的經典起源。
歷經了60年的發展,人工智慧的研究領域因種種困難而起起落落,經歷了無數個轉角。起初仿造動物神經元,希望打造強人工智慧的人工神經網絡(Artificial Neuron Network),先是經歷了機器無法應付計算複雜度的困境,無法取得研究經費而停滯;同一時期另一脈絡的弱人工智慧,則發展出博聞強記、分辨率隨資料質與量逐步提升而快速進展的機器學習。如今,人與機器的對話,已因商業應用的普及而不再困難。這一甲子,到底電腦科學家解決了些什麼問題呢?從人工智慧三大關鍵技術突破或可窺探未來。
關鍵技術一:文藝復興後的人工神經網絡
對於人工智慧,電腦科學家當然希望可以直接模仿生物的神經元運作,因此設計數學模型來模擬動物神經網絡的結構與功能。所謂人工神經網絡是一種仿造神經元運作的函數演算,能接受外界資訊輸入的刺激,且根據不同刺激影響的權重轉換成輸出的反應,或用以改變內部函數的權重結構,以適應不同環境的數學模型。
機器學習 Machine Learning
機器學習是可以尋找適合讓電腦做預測或數學模型分類的一種演算方法。這種演算方法主要透過蒐集大量原始數據與標準答案,以訓練資料調整且選擇相應的數學模型,同時並藉由驗證資料比對計算分類結果,來判定模型是否適合用來預測或分類。
1951年,科學家馬文.閔斯基(Marvin Minsky)第一次嘗試建造了世上第一個神經元模擬器:Snarc(Stochastic Neural Analog Reinforcement Calculator),它能夠在其40個「代理人」和一個獎勵系統的幫助下穿越迷宮。六年後,康乃爾航空工程實驗室的法蘭克.羅森布拉特(Frank Rosenblatt)設計、發表神經網絡的感知器(Perceptron)實作後,人工神經網絡(或稱類神經網絡)學者曾經一度振奮,認為這個突破終將帶領人工智慧邁向新的發展階段。

但,人工智慧領域的研究在1970年代因為缺乏大規模數據資料、計算複雜度無法提升,無法把小範圍的問題成功拓展為大範圍問題,導致計算機領域無法取得更多科學研究預算的投入而沉寂。到了1980年代,科學家首先透過思考上的突破,設計出新的演算方法來模擬人類神經元,迎來神經網絡發展的文藝復興時期。物理學家約翰.霍普費爾德(John Hopfield)在1982率先發表Hopfield神經網絡,開啟了神經網絡可以遞迴設計的思考。四年後,加州大學聖地牙哥分校教授大衛.魯梅爾哈特(David Rumelhart)提出了反向傳播法(Back Propagation),透過每次資料輸入(刺激)的變化,計算出需要修正的權重回饋給原有函數,進一步刷新了機器「學習」的意義。科學家更進一步把神經元延伸成為神經網,透過多層次的神經元締結而成的人工神經網絡,在函數表現上可以保有更多「被刺激」的「記憶」。
目前多層次的人工神經網絡模型,主要包含輸入層(input layer)、隱層(hidden layer)與輸出層(output layer),另外根據資料輸入的流動方向,又分為單向流動或可以往回更新前一層權值的反向傳播法。由於神經網絡模型非常仰賴計算規模能力,為了增加高度抽象資料層次的彈性,電腦科學家將之複合為更複雜、多層結構的模型,並佐以多重的非線性轉換,將其稱之為深度學習(Deep Learning)。
關鍵技術二:靠巨量數據運作的機器學習
科學家發現,要讓機器有智慧,並不一定要真正賦予它思辯能力,可以大量閱讀、儲存資料並具有分辨的能力,就足以幫助人類工作。1970年代,人工智慧學者從前一時期的研究發展,開始思辯在機器上顯現出人工智慧時,是否一定要讓機器真正具有思考能力?因此,人工智慧有了另一種劃分法:弱人工智慧(Weak AI)與強人工智慧(Strong AI)。弱人工智慧意指如果一台機器具有博聞、強記(可以快速掃描、儲存大量資料)與分辨的能力,它就具有表現出人工智慧的能力。強人工智慧則是希望建構出的系統架構可媲美人類,可以思考並做出適當反應,真正具有人工智慧。
機器學習(Machine Learning)可以視為弱人工智慧的代表,只要定義出問題,蒐集了適當的資料(資料中通常需要包含原始數據與標準答案,例如人像圖片與該圖片內人像的性別、年齡),再將資料分做兩堆:訓練用與驗證用,以訓練用資料進行學習,透過特定的分類演算法抽取特徵值,建構出資料的數學模型,以該數學模型輸入驗證用資料,比對演算的分類結果是否與真實答案一樣,如果該數學模型能夠達到一定比例的答對率,則我們認為這個機器學習模型是有效的。這種具有標準答案,並以計算出的預期結果進行驗證的機器學習,通常被稱為監督式學習。
相對於監督式學習,非監督式學習則強調不知道資料該如何分類的機器學習,換句話說,我們提供電腦大量資料,但不告訴它(或許我們也真的不知道)這些資料該用什麼方式進行分類,然後電腦透過演算法將資料分類,人類只針對最終資料分類進行判別,在數據尋找規律就是機器學習的基礎。
機器學習的發展方向,是在設計、分析一些讓電腦可以自動「學習」的演算法,讓機器得以從自動分析資料的過程中建立規則,並利用這些規則對還沒有進行分析的未知資料進行預測。過程中,時常運用統計學技巧,並轉化成電腦程式,進而計算出資料的分界條件來做預測。
深度學習 Deep Learning
深度學習是機器學習的一種分支,也是目前機器學習發展方向的主流。其概念主要是複合多層複雜結構的人工神經網絡,並將其中函數作多重非線性轉換,使之增加高度抽象化資料、記憶資料影響能力。

弱人工智慧作為人工智慧領域的發展途徑,無論是監督式學習或非監督式學習,隨著資料被大規模蒐集、經由網際網路被傳遞、輔以雲端架構支援的運算,用機器學習來解決人類基礎的問題變成一種可能。目前機器學習也是人工智慧商業應用最廣泛的一種技術。舉凡搜尋引擎、圖像辨識、生物特徵識別、語音與手寫識別與自然語言處理、甚至是檢測金融詐欺等等,都是常見的應用。
關鍵技術三:人工智慧的重要應用:自然語言處理
對人類來說,如何讓這些現代自己製造出來的機器們,可以聽懂人話,並與人類「合作」,絕對是可以推動我們面對未知宇宙的重要助手。
自然語言處理(Natural Language Processing, NLP)的研究,是要讓機器「理解」人類的語言,是人工智慧領域裡的其中一項重要分支。英國雷丁大學的演化生物學家馬克.佩葛(Mark Pagel)認為,最早的一種「社會科技」是人類的「語言」,語言的發明讓早期人類部落透過新工具:「合作」在演化上占有優勢。自然語言處理可先簡單理解分為進、出計算機等兩種:其一是從人類到電腦──讓電腦把人類的語言轉換成程式可以處理的型式,其二是從電腦回饋到人──把電腦所演算的成果轉換成人類可以理解的語言表達出來。
自然語言處理 Natural Language Processing
自然語言處理又可分為不同的階段,包含:語音或文字辨識、自動分詞與詞性標注、語句生成與文本朗讀等。主要著重如何以電腦處理並運用自然語言,並企圖讓機器「理解」人類的語言,是人工智慧領域裡的其中一項重要分支。
無論是從人類到電腦,或從電腦到人類,語言處理通常都使用到我們一般學習外語所要具備的聽、說、讀、寫等技能。其中:聽與說主要使用到聽覺與發音,對電腦而言就是能夠透過麥克風「聽」到人類說話,把聽到的聲音轉成文字(這是語音辨識),或把電腦想要表達的意思轉成人類可以理解的詞句(這是自然語言生成),再用耳機或喇叭「唸」給人類聽(這是語音合成,功能通常稱作文本朗讀:text to speech)。科學家與工程師們也致力於影像文字辨識,影像來源可以是掃描完成的文件影像檔案、也可以是手機鏡頭的即時影像,目標的文字體則可以是一般鉛字印刷品或列印的文件,也可以是手寫文字(手寫文字辨識)。
當計算機透過「聽」或「讀」,將人類的話語或文章轉成文字、語句進到處理層,還需要能夠自動分詞(word segmentation),也就是電腦必須拆解人類的語句來理解語意,才可以進而給出相應的答案。例如一般人對手機說:「今天香港會不會下雨」,手機必須錄下聲音、並且濾掉雜音、將這句話的聲音轉化為文字、將這句文字拆解成不同詞句,並標注上不同詞性(speech tagging)。
「瞭解」使用者想要知道氣象資訊的命令後,手機必須對能提供「天氣」資訊的伺服器發出相應的(告訴伺服器要的地理資料是香港、並把今天轉換為實際的日期時間)資訊請求,包含未來數小時區間氣溫、氣象(是多雲、雨或晴天等)、風速、降雨機率、濕度、氣壓、空氣品質或紫外線指數等。
人工神經網絡 Artificial Neural Network, ANN
簡單地說,人工神經網絡就是以數學函數模擬生物神經元的運作,透過數學模型模擬生物的神經傳導與反應,並藉此接受外界資訊輸入的刺激,根據不同刺激影響權重來轉換輸出反應。

當伺服器回應了前述的相應數據後,手機可以選擇用螢幕畫面來回應,但更貼心的作法是把這些資訊翻譯成「人話」,然後用聲音唸出來。這時的處理可以把「香港接下來八小時會是晴天,氣溫攝氏25度,降雨機率是10%,空氣品質良好」這個句子,透過合成不同語詞聲音後說出來。但是,使用者問的其實是「會不會」下雨,所以必須進一步把降雨機率10%、晴天等等資訊轉換成「會不會」的尺度,例如10%可以轉化為「不太會」或是「只有很小的機率」一詞。
人類互動最重要的工具就是語言,無論是文字或語音,語音智慧助理讓人能和機器說話,無非是近年行動裝置普及後,最令人興奮的進展之一。
3 Google人工智慧產品大爆發的幕後秘辛


Google組織重整,以Alphabet作為母公司運作時,曾經引起外界熱烈討論,如今再看「Al」phabet,似乎可以作為Google全方位布局人工智慧的解讀,其以人工智慧技術為核心,發展各領域的智慧硬體,未來一年將大爆發。
「今晚吃咖哩吧!」一名中年人在車上對著語音助手Google Assistant這麼說,而Google Assistant隨即就為車主找到曾經消費的咖哩餐廳,並且安排餐點確認訂單,當車主踏進家門後的15分鐘,咖哩就送到家,這個服務來自Google打造的語音助手Google Assistant。Google Assistant成為Google產品的靈魂,進駐產品的身體裡。10月5日,Google CEO桑德爾.皮蔡(Sundar Pichai)在產品發表會上一口氣推出Pixel、Google Wi-Fi、Google Home、Daydream VR與Chromecast Ultra等五種產品,這些產品有個共同點:內含Google Assistant。
2015年起,Google在人工智慧領域大放異彩。除了從OK Google進一步演化的Google Assistant之外,圍棋機器人AlphaGo、開源平台TensorFlow、搜尋系統RankBrain、智慧即時通訊Allo等人工智慧產品源源不絕地產出,不過,就在Google人工智慧產品紛紛上市的同時,Google公司組織也發生巨大變化。2015年中,Google重整公司架構,新成立Alphabet公司,成為Google母公司,原先的Google X與Google Ventures等七大業務成為Alphabet的子公司。
Alphabet公司的出現和人工智慧發展有關嗎?「Alphabet也可以理解為alphabet,意味著投資回報高於基準,這是我們一直以來奮鬥的目標!」Alphabet執行長佩吉(Larry Page)在公開信中這樣寫道,但他沒有明言對人工智慧領域的壯闊野心,就字首上來看,「Alpha波」正是一種腦波,也就是腦部電流活動的核心形式。

Google成立「Al」phabet就是為了AI?
「Google的野心就是把機器學習作為一個核心,然後用它去解決非計算機、非網際網路領域的各種問題。」創新工場創辦人李開復指出。「人工智慧將是Alphabet在未來新市場中的殺手鐧。」市調機構CB Insights一份研究報告也指出。
李開復分析,Google成立Alphabet,是因為Google在搜尋和廣告業務的累積,發展了一套以應用知識地圖(Knowledge Map)的商業模式:Google Brain。Google Brain就是機器學習的大腦,這個機器包括了平台與專家,如果它運用在搜尋領域就是一個搜尋引擎,如果能夠用在醫學領域,那它可能就是一個癌症診斷系統,當然也可用於智慧家電等各種不同領域。
Google深度學習大爆發的幕後秘辛
為了一窺Google人工智慧的發展藍圖與研發秘密,《數位時代》特別專訪Google MLX(Machine Learning Accelerated)技術總監雪克(Tal Shaked)。雪克專注於大規模機器學習系統的研發,並將成果應用到Google系列的產品。
雪克加入Google的11年當中,共同創建了搜尋排行系統Rankboost與機器學習系統Sibyl。他還有個特別身分:西洋棋特級大師,並且多年參與職業棋賽。「2012年以前Google使用深度學習的專案量是0個,但到2015年卻已經超過1,500個,這些專案包括Android、Google Apps、藥物開發、Gmail、地圖、Photos、翻譯與YouTube等等橫跨各種領域。」雪克指出。
2014年是Google深度學習起飛關鍵年。這年開始深度學習專案開始快速成長,2015年第二季就大爆發衝破800個,2016年第一季甚至突破2,400個,這背後的秘密是什麼?
「從外界看來我們是突飛猛進,但其實這是全球深度學習相關技術累積的成果,這些成果可以追溯到1950年代,這60多年的累積像一個長長的尾巴,支撐起Google的大爆發。」雪克分析。其實在2014年前,Google就看準世界頂尖人才,不惜砸下重金網羅這些稀有的優秀腦袋。2013年,Google把手伸進多倫多大學,收購其電腦工程系的新創團隊DNNResearch,這個團隊沒有驚人獲利與實質上市產品,有的僅是辛頓(Geoffrey Hinton)教授和他的學生等三個成員,但辛頓教授正是深度學習學派的開山祖師,他與學生所組成的團隊在神經網絡、自然語言處理與圖像辨識上連續創下驚人的研究或比賽成果,在被收購前一個月,這個團隊才剛連續拿下三個比賽,拿走近20萬美元總額的獎金。
除了DNNResearch團隊,2014年一個閃電併購案,也是讓Google在該領域大爆發的重要原因。這一年Google成功以4億英鎊從Facebook手中搶下DeepMind團隊。DeepMind為西洋棋神童暨神經學家哈薩比斯(Demis Hassabis)於2012年前所創立,今年以深度學習系統AlphaGo在五局三勝制的人機對弈大賽中,贏了韓國九段圍棋棋王李世乭,震驚全球。
現在,Google Brain和DeepMind團隊成為Google發展人工智慧的重要推進力量。
從機器學習到機器智慧的 AI發展藍圖
「Google人工智慧發展藍圖,是從Google的核心技術:機器學習(Machine Learning)所應用的搜尋與廣告,拓展到機器智慧的智慧家庭中樞Google home等智慧硬體,或Google翻譯、Google Photos與Gmail等等。」雪克指出,「Google希望整合這些技術成為人工智慧,可以被拓展到更大的應用在能源、醫療與機器人等其他領域,進入每個人的生活。」
其中,Google翻譯就整合人工神經網絡(artificial neural network,ANN),讓翻譯品質更接近人工翻譯,過去Google翻譯採用的是基於短詞句的機器翻譯(Phrase-Based Machine Translation,PBMT)但近日則採用基於神經網絡的機器翻譯(Neural Machine Translation,NMT),「以中英翻譯來說,若使用者要翻譯『請問廁所在哪裡?』,過去的Google翻譯給的是:『Where is the restroom?』,但現在翻譯品質更好了,系統會給出:『Excuse me, where is the toilet?』這樣的翻譯答案。」雪克舉例。

雪克還指出,Google Photos部分也使用卷積神經網絡(Convolutional Neural Network, CNN),讓機器可以自動標籤;機器可以基於人工智慧技術所進行的圖像辨識,對原本不具有標籤的照片進行分類;例如,使用者只要在搜尋欄位輸入「狗」,就可以讓系統可以自動辨識,找出整批有狗的照片。在Gmail應用中的智慧回覆(smart reply)功能也是以人工智慧給出建議回覆內容,透過對Gmail 收件匣分析使用者收到的信件內容,自動給出「明天見」、「馬上寄給你」等回覆選項,讓使用者回覆Gmail更得心應手。「除了這些核心產品,也利用深度學習優化Google數據中心能源利用率,以及用於檢測視網膜圖像中的糖尿病視網膜病變。」雪克強調。
「在日本已經有農業研發人員,使用TensorFlow工具開發出人工智慧揀選小黃瓜系統;現在,電腦已經不只會選土豆,電腦也學會根據小黃瓜的大小顏色與形狀自動挑選;此外,TensorFlow也被科學家拿來判讀衛星照片,透過機器學習,自動判別照片中的白色區塊是雲還是雪。」雪克說。Google機器學習團隊對於人工智慧的應用寄予厚望,2015年底,Google對外開放了自己內部開發使用的第二代機器學習程式庫工具TensorFlow;由於TensorFlow是第一套包含最完整、各種機器學習的程式庫與工具,TensorFlow毫不意外同時成為學界與業界最受歡迎的人工智能開源平台。
Google智慧硬體時代來臨,台灣扮演要角
巨量的數據、雲端運算資源的擴展與GPU等硬體進步,支撐起Google人工智慧技術猛進,也讓Google開始做「智慧硬體」大夢。過去Google一直未全力投入硬體發展上,常委由硬體合作夥伴生產,但今年4月,Google 成立新硬體部門,找Motorola前總裁歐斯特拉(Rick Osterloh)領軍,5月Google在開發者大會上也發表自行研發的機器學習專用晶片TPU(Tensor Processing Unit),而10月5日的發布會也全是智慧硬體,Google智慧硬體時代已然來臨。
過去就和Google緊密合作的HTC與華碩等台灣大廠,自然也是Google智慧硬體布局重要夥伴,在網路時代無緣參與世界舞台的台灣,正攜手Google跨進智慧硬體世界。「現在是Google有史以來最重視硬體的時候……台灣的軟體技術排世界前十,聯發科、HTC、台積電、鴻海等業者的等硬體產品是世界頂尖,台灣要能跟上AI技術潮,把握這個軟硬體整合的最佳時機。」Google台灣董事總經理簡立峰說。
4 Cortana暖身,微軟AI野心勃勃


今年10月,微軟成立人工智慧與研究部門(Microsoft AI and Research Group),集中資源投入人工智慧研究與產品服務研發。40年歷史的微軟,隨著Wintel浪潮退去,未來,要靠人工智慧平台展現昔日風華。

「松鼠陪著核桃在庭院追迷藏,葡萄躲進木桶釀出時光。」2016年6月1日微軟開發者峰會上,Ptt創辦人、來自台灣的Microsoft人工智慧亞太區研究總監杜奕瑾,站在舞台上對著Cortana說,「請播放周杰倫的〈前世情人〉」時,Cortana馬上聽懂了杜奕瑾的指令,隨即並播放周杰倫最新MV〈前世情人〉。不僅如此,Cortana還會訂餐,當用戶的會議日程與用餐時間產生重疊時,Cortana會提前進行詢問是否需要訂餐,並且推薦用戶喜歡的美食。

工作與生活的幫手Cortana
Cortana是微軟開發的虛擬語音助理。「Cortana的研發歷程,不像一般產品,更像是孩子慢慢長大的過程,它先天很聰明資質很好,雖然我們還有很多不滿意的地方,但用戶回饋常給團隊很多驚喜。」微軟亞洲互聯網工程院常務副院長兼產品及開發總經理幺寶剛說。
「我們要打造個性化與客製化的,屬於你的Cortana。讓Cortana非常了解你,提供無縫接軌的服務,幫助你的工作和生活。」幺寶剛說。他舉例,讓Cortana提醒使用者下一個會議和與誰開會;如果會議在城市另外一點,Cortana會提醒使用者早點出發,因為當時交通有些壅塞。Cortana非常了解使用者的日程,喜歡看哪種新聞,喜好哪種食物,並且能在最適合的時機點,提供這些服務。「我們還在做不同的嘗試,看哪種個性的Cortana,哪種聲音的Cortana使用者會喜歡。」
人工智慧助手已經成為科技巨頭的兵家必爭之地,除了微軟,Google、亞馬遜與百度等公司紛紛推出雷同產品,百家爭鳴。不過微軟早在1991年就招攬人工智慧人才,累積研發能量一直到現在。今年3月微軟開發出一款人工智慧聊天機器人Tay,一炮而紅,但才上線一天就因種族歧視暫停使用。

「微軟的人工智慧研究成就都很突出,尤其是在語音辨識和圖像辨識等領域,如果你沒有非常認真的投入這些領域,是很難發展並且轉化成產品的。」微軟執行長納德拉(Satya Nadella)在公開場合曾自豪地說。微軟人工智慧團隊10月就發表了一篇語音辨識系統的論文,報告中指出,微軟語音技術在Switchboard(美國國防高級研究計劃局資助蒐集的電話對話語料庫)對話語音辨識的詞錯率為5.9%,與人工聽寫的錯誤率差別不大。
把AI技術打包成API
單靠語音助理,無法撐起微軟的人工智慧大夢,微軟雲端平台Azure在微軟人工智慧藍圖中扮演更關鍵角色。「微軟要把人工智慧技術民主化(democratize),成為汽車、醫療製造、金融保險等領域企業的賦能者(enabler)……大眾把人工智慧看得太玄了,我們應該要用一種平常心去面對這樣的科技。」微軟全球資深副總裁洪小文說。
為了達成民主化目標,微軟從雲端平台Azure切入,圍繞Cognitive Services核心,把人工智慧所有的技術打包成API,讓開發者使用。「微軟是一個平台公司,讓任何一個公司可以來簡單ㄐ寫用人工智慧,包括了語言、語音與視覺等各種領域,大家都可以用我們的API(Application Programming Interface,應用程式介面),很容易就可以寫程式。」洪小文舉例,以造成轟動的How old.net來說,裡面的代碼不到八行就可以寫出來,因為這個Code是Cognitive Services的API,微軟還陸續推出了新的Cognitive Services,不斷的更新,產生一些新的功能,最近加的Video的功能,也是一個新API,是Aptionbot.ai,也可以上傳任何照片。
為企業應用添加人工智慧
「微軟所有願景的交匯處就是人工智慧。人工智慧提供的是將大數據解析之後產生智慧……我们如何為所有的軟體和應用,比如Cortana、Office 365、Dynamic 365,添加人工智慧因素?這是我們發展人工智慧的角度。」納德拉說。為了人工智慧,微軟也以262億美元收購專業社群網站LinkedIn,是微軟史上最大併購。「擁有再高深的軟體演算法,再強大的硬體,沒有所謂的商業邏輯與資料積累,任何商業的人工智慧都是沒有意義的空盒子。微軟買LinkedIn為的是幫Office 365軟體及客戶關係管理Dynamics注入專業人士的靈魂。」HWTrek創辦人王仁中在Facebook上發文分析。
「LinkedIn全公司都有這樣一種數據文化,以產品部門來說,雖然LinkedIn今天有4億用戶,但是從1萬到2萬5千個用戶的時候就開始用數據分析。」前LinkedIn美國商業分析部高階總監,GrowingIO創辦人兼CEO張溪夢在他LinkedIn中發文。LinkedIn團隊以數據驅動的文化聞名矽谷,這正是微軟導入人工智慧的重要原動力。
除了Cortana,微軟也把人工智慧添加到Office 365與Dynamic 365等產品中。舉例來說,Office 365借助Microsoft Graph,Word與Outlook中的Tap功能將讓使用者輕鬆地把內容整合自己的檔案和信件中;微軟MyAnalytics則是Office 365的一項分析服務,能幫助人們更好地分析工作中時間消耗的情況。
「從投資的衡量角度來看,我覺得人工智慧的價值在於它將被注入我們所有的產品和服務裡。」納德拉說,40年歷史的微軟,要靠著人工智慧平台展現昔日風華。

微軟認知服務範籌
語音
Bing Speech API
雙向轉換語音與文字,從而了解使用者的想法說話者辨識API
使用語音來辨識及驗證說話者
搜尋
Bing 搜尋API
供應用程式使用的Web、影像、影片及新聞搜尋APIBing 自動建議 API
將搜尋用的智慧型自動建議選項提供給應用程式
辨識
人臉識別 API
偵測、分析、組織及標記相片中的臉孔Emotion API
利用表情辨識個人化使用者體驗Computer Vision API
從影像擷取可操作的資訊
語言
Language Understanding Intelligent Service
教導應用程式理解使用者發出的命令Text Analytics API
輕鬆解讀意見與話題,了解使用者需求Web Language Model API
透過網路規模資料訓練,預測語言模型Bing 拼字檢查 API
偵測並校正應用程式中的拼字錯誤
知識
Recommendations API
預測並建議客戶想要的商品Academic Knowledge API
充分利用 Microsoft Academic Graph 中豐富的學術內容
微軟
領域:AI雲端平台
人工智慧三大特色:
・以機器學習建構智慧雲端平台Azure
・開發智慧助理Cortana與微軟小冰
・語音辨識與圖像辨識領域表現突出
5 最亮眼的25顆人工智慧新星


《富比士》根據新創數據平台CrunchBase數據,公佈了一份AI新創公司25強榜單。研究方法是,從CrunchBase數據庫中選選取256家公司,排除被併購和上市公司,並且選擇融資輪數在三次以下,以融資額度排名。
在《富比士》所揭露的這份榜單中,美國公司以17家、超過六成占比遙遙領先排名第二的中國,其他則來自歐洲國家,很可惜的台灣並沒有公司入榜。而25家新創總計融資6.3億美元,涵蓋來自醫療、機器人、輔助駕駛等八大領域。其中醫療新創表現亮眼,醫療領域需要投入昂貴精密的醫材硬體與相關軟體,融資額度前三名有兩名為醫療新創。
來自中國,醫療健康人工智慧系統公司碳雲智能完成了A輪股權融資,募集資金超過1億美元,騰訊亦參與投資,投後估值近10億美元,名列第一。來自法國,設計出全球第一個「人工心臟」器官,藉此治療心臟衰竭等心血管疾病的CARMAT則名列第三,第一輪融資5,501萬美元。而來自紐約的藥物監控解決方案新創AiCure則名列第13名。

此外若按領域劃分投資額度後也發現醫療新創平鈞融資額度超過4千萬美元,遠遠大於排名第二的無人機新創的2,500萬美元。
AI+醫療成為趨勢。9月微軟公開了名為人工智慧醫療計畫Hanover,透過自然語言處理分析醫學文獻與病例,透過人工智慧系統幫癌症患者找到最佳療法,此計畫與推廣智慧醫療已久的IBM Watson Health相當雷同。而Google旗下DeepMind也公布DeepMind Health計畫,經由App把醫療資料傳給給醫護人員照護病人。這些醫療新創公司都很有可能成為Google與IBM等人工智慧巨頭下個併購清單。
人工智慧25強排行榜
1:Icarbonx
領域︱醫療
國家︱中國
募資總額︱155,000,000美元
2:Anki

領域︱機器人
國家︱美國
募資總額︱105,000,000美元
3:CARMAT

領域︱醫療
國家︱法國
募資總額︱55,019,422美元
4:Arago

領域︱企業服務
國家︱德國
募資總額︱55,000,000美元
5:CloudMinds
領域︱機器人
國家︱美國
募資總額︱31,000,000美元
6:Zero Zero Robotics
領域︱無人機
國家︱中國
募資總額︱25,000,000美元
7:Preferred Networks, Inc.
領域︱輔助駕駛
國家︱日本
募資總額︱17,299,999美元
8:CustomerMatrix

領域︱企業服務
國家︱美國
募資總額︱16,000,000美元
9:Ozlo
領域︱機器人
國家︱美國
募資總額︱14,000,000美元
10:Scaled Inference
領域︱服務平台
國家︱美國
募資總額︱13,600,000美元
11:Inbenta

領域︱企業服務
國家︱美國
募資總額︱13,370,657美元
12:Nara Logics

領域︱服務平台
國家︱美國
募資總額︱13,000,000美元
13:AiCure

領域︱醫療
國家︱美國
募資總額︱12,250,000美元
14:Maluuba
領域︱服務平台
國家︱加拿大
募資總額︱12,000,000美元
15:HyperScience
領域︱企業服務
國家︱美國
募資總額︱10,879,675美元
16:Automated Insights
領域︱新聞寫作
國家︱美國
募資總額︱10,800,000美元
17:StatMuse
領域︱數據平台
國家︱美國
募資總額︱10,120,000美元
18:Entefy
領域︱服務平台
國家︱美國
募資總額︱9,700,000美元

19:Blackwood Seven
領域︱企業服務
國家︱丹麥
募資總額︱8,406,249美元
20:AdasWorks
領域︱輔助駕駛
國家︱匈牙利
募資總額︱8,331,105美元
21:MetaMind

領域︱服務平台
國家︱美國
募資總額︱8,000,000美元
22:DigitalGenius

領域︱企業服務
國家︱美國
募資總額︱7,349,999美元

23:Jolata
領域︱企業服務
國家︱美國
募資總額︱7,000,000美元
24:Kite
領域︱服務平台
國家︱美國
募資總額︱6,600,000美元
25:MobileROI

領域︱企業服務
國家︱美國
募資總額︱6,000,000美元
6 人工智慧的奇點在2045年就會來臨嗎?

大家很擔心將來「機器」會超越人的智力,機器會毀滅人類,大家都在探討到底人工智慧是否可能比人還聰明,還更有創造力?有些專家認為在2045年奇點(Singularity,指人工智慧自己可以創造出比自己能力還強的東西)來臨,但我並沒有這麼樂觀。
60年前召開達特茅斯會議(Dartmouth Summer Research Project on Artificial Intelligence)的麥卡錫(J. McCarthy)是我的師祖,大家稱他為「人工智慧之父」,有人曾經問他,創造一個機器,能達到人的智慧要多久?他給了一個很妙的答案,五年到500年,今天看起來,肯定不是五年,我認為接近500年吧!

因為人類是種很神奇的動物,我們雖然每項能力拆開來看都不是最強,譬如說人類跑不過狗,飛不贏鳥,打不贏獅子,但卻能創造汽車和飛機,在這種全方面的智慧很厲害。但現在的人工智慧多是弱人工智慧,只能用在單一種場景與應用上,而不是能全方面跨領域的智慧。
舉一個很生活化的例子,我自己有教小孩的經驗,有時教他一個概念他聽不懂,但換一種角度和小孩講,小孩就懂了,這就是一種創造力。創造力無所不在,要人工智慧像人類一樣擁有「天外飛來一筆」的這種創造力,還有很大一段距離。
再舉其他的例子,以偉大的科學家愛因斯坦來說,愛因斯坦提出重力波(Gravitational-Wave)的時候哪有數據呢?一點數據都沒有,是「零」數據狀態,但愛因斯坦卻從腦裡蹦出一個想法,現在我們用高深的技術,也才測到重力波一點點影子,但愛因斯坦卻可以在無數據的狀況下得知。
另外,我非常推薦一部2015年的電影《天才無限家:The man who knew infinity》,一個談人類驚人創造力的真實故事。電影主角拉馬努金(Srinivasa Ramanujan),出身於印度貧苦家庭,沒有受過正規教育,但天賦異稟靠自學發現近4千個數學公式和命題。我記得電影裡頭有人問他,他為什麼能創造出這麼多的東西呢?他說:「這是神告訴我的!」由此可知這種「天外飛來一筆」創造力,人類自己都搞不清楚了,因此更不用太過擔心機器會比人還更有創造力,更聰明。

況且,就連愛因斯坦也不是全能的,他雖然具有驚人的創造力,但美國數學家約翰.納許(John Nash)教授的經濟理論他也不見得想得到,科學偉人牛頓也是一樣的,沒有一種人在所有領域都什麼都懂的,因此人類怎麼造出全知全能的人工智慧呢?
我們目前對創造力的理解,還是非常有限,所以能否創造出比人類還更有創造力,還要聰明的人工智慧,我自己是持保留態度的。不要忘了,現在的人工智慧程式碼都是人寫進去的,除非人工智慧可以自己寫程式碼,否則這些機器背後都有一個人。人加機器可以做很多事情,因此如果人類拿人工智慧來做壞事的話,要規範要處罰的是人類,而不是規範機器,機器本身是無機的,「水能載舟,也能覆舟」,像飛機是好東西,但在美國911恐怖攻擊事件中,有人用飛機幹了壞事,該怪罪創造飛機的人嗎?再以無人車為例子,如果有壞人設計的無人車看到人都撞,那你要怪罪那輛車嗎?那車也太無辜了,應該是要怪人。
而這也是微軟和亞馬遜、Google、IBM等公司等合組Partnership on AI組織的原因,我們要把人工智慧技術民主化,現在大眾把人工智慧看得太玄了,其實技術就只是這麼一回事,我們應該要用一種平常心去面對這樣的科技。
不過,高效率又自動化的人工智慧技術,的確會對產業革命性影響,並且帶來一些政治、社會與教育問題。那面對未來人工智慧的時代,我們教育應該怎麼走,讓未來的人們有足夠技能面對這樣的挑戰呢?將來大部分的人都要懂得終身學習(lifelong learning),以前一個技能就能用一輩子,但現在科技變化太快,單一技能無法面對新時代,因此可以多應用MOOC(Massive Open Online Course)等免費開放教育平台,活到老學到老。
另外,教師在學校裡要能教導學生如何學習新知(Learning to learn),我想這是非常重要的。此外,還有一個非常重要的領域就是計算思維培養,在現代計算思維已經和數學一樣重要了,因此教育體制要怎麼把計算思維,透過簡單易懂的方式,教育非電機性相關的學生,甚至是中小學生,這也是需要投注精力的。
口述/洪小文 整理/翁書婷
7 人工智慧能創作偉大的藝術作品嗎?


美國白宮2月報告指出,未來幾年內時薪20美元以下的工作,有83%機率被人工智慧取代,時薪20至40美元被取代的機率降至31%,時薪更高的工作被取代機率僅4%。我對這份預測抱持不同意見,就我所知,高薪階級在人工智慧世代未必能安穩無憂,深度學習只要用原始資料就能建模,可能讓不少資料庫ETL(Extract-Transform-Load,將資料從來源端經過萃取、轉置、載入至目的端的過程)人員失業;聊天機器人興起,靠嘴賺錢的行業也要捏把冷汗,到底什麼工作最安穩? 有人說在李世乭輸給AlphaGo後,藝術是人類最後精神堡壘了,事實卻不是那麼樂觀。

多數人心中,電腦程式和規則、僵化與明確邏輯畫上等號,常有人說不能用程式處理,因為這要看狀況憑經驗,使用第六感,反正規則說不清就對了。而藝術更是人類生活中最難以具名的,風格與美都得用心來感受,但深度學習卻能輕易地將風格從一張照片中抽取出來,風格變成可計算、可被疊加,用人類無法解讀的網路權重表示。

讓我們一窺前所未有的視覺體驗──Neural Art。圖1是我做的展示,我拿了一張在凍原上的馴鹿照片作為底圖,但是我另一方面拿了日本當代藝術大師蜷川實花的一張攝影作品,超高的彩度與飽和度是蜷川實花的風格特色。但只需要一張這樣的照片,深度學習就能夠從這張圖中把難以具名的風格抽取出來。最後我們將它疊加到馴鹿的照片上,成果圖即為圖1;同樣的作法,也可以從圖2的三組影像中看到。沒錯,不需要人力,不需要手動修圖,只需要將原圖輸入至已經抽取出蜷川實花風格的卷積神經網路(Convolutional Network)中,不須幾秒,就能夠產生如夢境般的新圖片。

這類深度學習又稱為生成模型(Generative Model),也就是說,人工智慧不只會下圍棋或做預測,也能生成影像與文字等不存在於歷史資料中的新內容,今年奧運巴西利用機器寫冷門賽事新聞稿,就是用生成模型。我們常使用濾鏡美化照片,生成影像大家可以理解,但為何它能模仿攝影者風格重繪影像?這必須歸功卷積神經網路,從像素層級逐層抽取視覺特徵的強大能力。
相較過去的機器視覺技術由人定義視覺特徵再建模,卷積神經網路的特色是利用卷積核(靈感來自於人類視覺的視角範圍)從像素層級逐步提取特徵,而加上「權重共享」概念讓整個卷積神經網路計算量大幅度下降,讓神經網路為基礎的機器視覺技術成主流,從像素底層發動攻擊。如果你訓練卷積神經網路認識狗,理論上除了燒成灰,像素也沒了之外,把照片放進碎紙機裡應該也可辨識。自2012年後,全球最大的機器視覺競賽Imagenet名列前茅的隊伍,幾乎用的都是深度學習。

抽取風格又如何做到?為何需要上萬張照片才能訓練的深度學習,只要一張照片就夠?答案在2015年8月德國團隊發布的「A Neural Algorithm of Artistic Style」論文裡(論文後來被Prisma App發揚光大)。多層卷積神經網路會逐層抽取特徵,越深則抽取出越抽象的視覺特徵,但是能夠多抽象,這篇論文中讓我們開了眼界, 原來藝術風格也能夠用數學方式表徵 。
那為何一張照片就夠,這得歸功於Imagenet提供百萬張照片1千個類別的競賽成果(作者使用一個針對Imagenet競賽,先訓練好的19層VGG網路模型,省去訓練權重找視覺特徵),在神經網路模型中,較深層的部分是抽取超接的抽象特徵,處理風格圖並找出風格,較淺層的部分是檢視像素細節重現原圖,接著透過不同的組合函數將兩者揉合。 生成模型讓人工智慧有接近「創作」的能力,不過這是基於過去人類的創作,抽象化轉換為數學表徵式 ,人工智慧只是照章辦事,人類還是幕後創作者。
這些Neural Art引發另個議題:著作權是誰的?是攝影師的?是我的?還是演算法發明團隊的?不遠未來,某藝術家嘔心瀝血創造一種新風格,可能很快被深度學習複製數萬張獨一無二的同風格作品。未來藝術家很難過得安穩,得夜夜擔心人工智慧搶飯碗吧!
8 人工智慧有可能會罷工嗎?

我們先談所謂人工智慧鬧罷工是怎麼一回事?在人類世界裡,若工作環境不佳,如工時太長不合理,讓勞工身體疲憊,或是老闆欠薪水,薪水過低,勞工內心不滿累積到一定程度,就會利用罷工爭取更好的工作環境。那在人工智慧的世界裡呢?
人工智慧本身並不會罷工
人工智慧會不會罷工和它有沒有自我意識有關。在人工智慧數十年的研究中,的確有些學者希望人工智慧能擁有自我意識,人類一出生就擁有好奇心,後來發展出自我意識探索人生與世界,這些學者把人工智慧看成探索自我的方式,但這種研究離我們現實生活很遙遠,對現代較主流的研究來說,人工智慧僅是基於理性邏輯思維,以為人類社會帶來正面貢獻為前提,所設計出的工具。

因此現代人工智慧的設計目標並非「最聰明」的人工智慧,而是最適合、最好用的人工智慧,人工智慧擁有自我意識或過於聰明,對人類來說可能就不見得太好用了。以自動駕駛車為例,人類可能比較希望人工智慧司機擁有絕對理性思維,最終能讓交通更安全,減少交通事故的發生,擁有自我意識的人工智慧司機,可能就會像人一樣有情緒反應,舉例來說,當一輛人工智慧汽車被超車時,人工智慧可能氣得超回去,這樣的人工智慧不夠理性,人類是無法信任的,這不是目前的科學發展目標。
那人類會設計出有情感的人工智慧嗎?以目前研究方向來說,除了少數的應用外,並沒有太多讓人工智慧有情感的理由。例如有些學者認為醫療照護的人工智慧需要有情感,能更像真人般互動,讓使用者覺得溫暖窩心,但就算是這樣的研究方向,情感也是一種「假情感」營造,是感覺起來,看起來像真人有感情一樣。而就人工智慧及相關領域發展的現況來看,這些「假情感」的創造並非最急迫的問題,還有更多更重要的問體要先解決。例如實務面來說,在自駕車領域裡,怎麼設計更理性的人工智慧讓交通更安全,而發生車禍後,責任歸屬與保險等規範訂定,都比創造人工智慧的情感和自我意識來得更急迫些,更需要盡快被解決。因此我認為在三到五年短期內還看不到這個需求產生。人工智慧是由需求產生的,引領需求的是手上握有資料的人,也許當未來有新的需求產生時,如虛擬實境的發展下,人類需要更多希望這些互動者能更有情感,更聰明,像科幻電影裡頭的那樣,那時才會朝向這個領域發展。
人工智慧背後的人類才是重點
就算人工智慧真的有很強烈的自我意識,也要有動機去罷工,但人工智慧吃電,雇主不用給它們薪水,也沒有所謂的被資方雇主虐待這件事。它們角色是人類的助理,對真正理性計算的人工智慧來說,計算完後應該會發現罷工無利可圖,沒有很強烈的動機罷工,所以我認為人工智慧本身不會罷工。

其實現在你身邊已經有很多人工智慧應用,大家正在慢慢享受這些工具的便利性,只是自己不知道而已,當人工智慧技術大量盛行,我們的社會有越來越多的地方導入人工智慧後,就會冒出很多操作這些人工智慧技術的專家,因此關於這個議題,操作人工智慧背後的人才是重點。就像飛機發明以後,有了機長和空姐這樣的職業,那機長與空姐的工作環境變成一個需要勞資雙方一起討論的問題,若機長與空姐覺得公司待遇不合理,工作環境不佳,那機長和空姐就有可能罷工了,但飛機是不會罷工的。
所以這是一個新興社會的問題,這些新興產業需要隨著科技進步與時代的演進,不同的人工智慧應用,需要不同的規範,這個規範怎麼訂定?需要勞資雙方一起找平衡點。在人工智慧的數十年的研究歷史中,的確曾經對人工智慧充滿幻想,覺得電腦很厲害,可以做到很多事,但現在已經意識到,我們不並需要太害怕人工智慧造成的不良影響。當人工智慧工具越來越成熟,的確會或有一波人工智慧革命在裡頭,就像蒸汽機發明帶來工業革命這樣,或是汽車發明後帶來的交通革命,就是一種工具與技術的演進。我們人類社會最後會找到適合的平衡點的。
口述/林軒田 整理/翁書婷