人工智慧自50年代由英國計算機科學家艾倫圖靈提出迄今已六十餘年,期間經歷了兩次的熱潮與兩次的「AI寒冬」;時至今日,隨著科技創新及因應人類生活變遷發展至AI第三波的崛起。 與前兩次的熱潮大多是西方國家投入不同,在這第三波的AI革命規模前所未見,全球各國政府與民間企業,紛紛投入大量資源,壓注AI是下個世代輸贏的關鍵。
從事AI研究,應該選擇什麼樣的方向?
近年來筆者有許多機會接受國內外傳產、新創公司及政府法人之諮詢,皆表示投入AI研發與產業的高度願意,希望得到方向上的建議。在參與諸多討論與腦力激盪的活動之後,我個人的焦慮不減反增。
由三國的歷史經驗言之,一場戰爭能夠勝利,主要取決於「戰略」的制訂,其次才是戰術執行。諸葛孔明初出茅蘆訂定「三分天下」的戰略,是後來劉備崛起的原因。想要在AI的戰場上佔有一席之地,最重要的「戰略」為何?在此我拋磚引玉利用這個機會把我個人的想法與各界先進分享,主要希望大家能夠重視這個議題,以成就完成更完整的論述。
我希望先從新創研發的角度,探討AI的藍海。也就是:如果一個公司希望能夠踏入AI的研發,或是一個AI研究部門希望開始從事AI的研究,應該選擇什麼樣的方向?
AI+X進入戰國紅海期
過去幾年大家討論最多的就是人工智慧之應用。AI暴紅之後,全球有數以萬計的固有企業或新創產業都在布局AI,時刻鑽研AI有什麼「殺手級的應用」,好像一間公司沒有AI就沒有競爭力:從固有的產業如金融、交通運輸、醫療、製造、農業、行銷、到新興產業如電子商務、通訊、廣告等,AI的相關應用遍地開花,儼然進入「肉搏戰」紀元。
例如無人載具(無人機無人汽車)、全球至少有數百家大大小小的公司在從事研發;時下新興行業實時競價RTB (Real Time Bidding),國內就有超過十家公司,多是利用機器學習以及巨量資料分析的技術來實現。
這方面的技術研發我稱之為AI+X,這裡X就是填上相關的應用(如AI-Medical就是人工智慧在醫療上的應用,AI-finance就是AI在金融方面的應用)。
AI+X如前所述已經進入了「戰國紅海」時期,可以想到的應用幾乎都有人在嘗試。結果大致上分兩類,第一類的AI+X技術已經成熟,且成為人類生活不可或缺的一環,例如搜尋引擎、推薦系統以及金融高速交易。
第二類的AI尚未全面取代人類原有模式,但已經有若干區域性的成功案例,如AI用在醫療(IBM華生)、物流(Amazon)、法律(legalrobot.com)等。在競爭激烈的AI應用戰場上,要殺出重圍除了具備與眾不同的技術,更需要完善的商業模式。
所以,AI+X的應用能不能做?當然可以,從研發的角度而言,就是要想如何比別人做得好。
但是AI+X容不容易做?坦白講是不容易的。因為人工智慧偏向軟體而非硬體產業,沒有產能與產量的問題,所以有「贏者全拿」的模式。也就是說,不是全球第一,或是缺乏與眾不同的優勢,大概就很難成功。這樣的挑戰是希望進入這個行業的新創需要率先認知的。在AI的戰場上生存的空間大多來自領先全球的技術。
因此,我很同意這一篇文章的看法,「在某種程度上,整個創業界必須回歸基本功,對於學術和產業專業做長期的投資耕耘,而不是妄想能一夕之間想出一個驚天動地的『好點子』而一炮而紅,這種創業神話在現實中發生的機率是微乎其微。」
所以,現階段AI的發展並不是想到一個好的應用,以tensorflow+GPU做個深度學習的套件就能成功,當機器學習(machine learning)甚至深度學習(deep learning)的套件做到連不懂原理的人都可以輕易使用時,必須要有更強大的技術能力才能與眾不同。
如果一個idea可以在幾天內被實現,即便這個idea是全新的,也可能在短時間內被複製;反之,若某個想法是「即使我告訴他人要做什麼,他人也無法輕易做得比我好」,表示技術的門檻夠高,在AI的戰國時代成功的機會就大幅提升。
然而,AI+X大多是屬於戰術層次的問題,而如何以此殺出重圍不是本篇的重點。本篇更想討論的是從戰略的角度,也就是如何找到AI的藍海?
可能的藍海:AI-Next
個人淺見認為,AI的藍海不在AI+X,而在AI-Next以及AI-Then。AI-Next我稱之為「次世代的人工智慧技術」,目的是要解決當前這波人工智慧技術所不能解決之問題。
雖然坊間對於人工智慧的期待甚多,人工智慧專家都知道目前的技術還有許多需要突破的點。
例如機器學習需要依賴大量標注資料的問題、訓練模型參數調校困難的問題、資料為本的方法對於推論與邏輯判斷較弱的問題、「資料」與「知識」如何整合的問題、找出更好的非凸性質最佳化(non-convex optimization)方法、指導式學習缺乏創造力的問題等等族繁不及備載。
需要注意的是這些都是AI在「方法」上面需要補強之處,而彌補這些技術的缺口也會對應到一些應用層次的提升。
AI-Next會是AI+X超越別人的契機。知名機器視覺專家李飛飛曾言,「我們處在的年代,不是AI的起點,也不是AI的終點,應該是AI啟蒙階段的終點」。我的詮釋是:如果把電腦的智慧看成有「啟蒙期,發展期,成熟期」目前我們正在啟蒙時代的末期,進入發展期的前端。
這也表示AI雖然已經可以展示出初步的「智慧」,尤其是「辨識」(如語音、視覺)相關以及「從資料中學習」已經很成熟,卻仍有許多需要開發探索的領域存在。
使用啟蒙期的AI去從事AI+X的應用,就如同將正在就讀小學的孩子送上戰場一樣,碰到簡單的任務也許勉強可以勝任,碰到困難的任務就等於瞎子摸象,成功是運氣而失敗大家會稱讚他有勇氣。
另一個或許更「藍」的海:AI-Then
另一個或許更「藍」的海,我稱之為AI-Then「AI世代面對的問題」。這個部分要討論的是:在不久的將來,快則兩三年,慢則五到十年,人工智慧(或說「弱」人工智慧)的應用必定會更無遠弗屆。
除了正面的改變人類的生活外,AI普及化也會造成許多前所未有的問題。AI-Then就是去解決未來AI世代的來臨會碰到的問題,例如以下的案例。
1.AI的漏洞
電腦普及之後,人類方理解電腦病毒對人類可能的危害及嚴重性。同理,AI普及與廣泛應用,將使AI的漏洞造成更大的危機。例如自動駕駛的AI技術若被攻擊,會危及交通運輸的安全性;推薦系統可經由操弄結果影響人類的決策;AI甚至可能假裝人類,改變網路投票的結果等等。是以,AI如何保護自身的安全,如何確保系統不會被攻擊或利用等相關議題,將會是AI-Then的重點之一。
2.更全面更像人類的AI
目前的AI+X研發多著重於如何利用機器學習從事預測,希望解決的問題相對單純。但是當電腦愈來愈聰明的時候,就更有機會展現其他方面的能力,甚至成為虛擬的員工。這樣的員工除了單獨解決問題外,也會有機會跟人互動,跟人協作。這個時候,AI將會需要溝通能力,理解同僚的能力,讓同僚理解它的能力,甚至同理心與社交能力等,這些能力都是目前AI所欠缺的。
3. AI的「社會責任」
俗諺有云「能力越強,責任越大」,所以許多知名的企業家如比爾蓋茲、馬克祖克柏都很關心於慈善、普及教育、幫助弱勢、環境保育等議題。當人工智慧能力愈來愈強,人類就更應該思考利用它來做更多有意義的事情。例如南加大近年來成立的「人工智慧與社會研究中心」,就是希望能夠利用AI技術來幫助社會。
他們曾經成功的利用社群網路分析技術來防範愛滋病在街友間的傳播、利用預測的補獸者技術以防止野生動物被獵殺等。其他如美國政府的環境監控以及評估專案(EMAP)也藉由機器視覺的方法來幫助監測環境的改變。
4. AI的「透明度」
要讓一般人能夠接受電腦的判斷,相關方法與決策的透明度與解釋程度將會是關鍵。當人工智慧往深度學習的方向走,往往犧牲了透明度與解釋的能力。深層的神經網路的參數量動輒是數以百萬計,想要從裡面找出AI決策的因子談何容易。
然而,如果訴諸於較為簡單容易解釋的模型(如決策樹),則會犧牲判斷的準確性。這就好比是AI的「測不準原理」。2017年的機器學習頂級會議ICML最佳論文,就是探討這方面的議題。
5. AI的「道德智慧」
大多數人都會同意「一個很有智慧卻沒有道德良知的人,有可能對人類造成很大的危害」。同理,當AI可以聰明到幫人類從事很多工作時,它對人類造成危害的機率也會上升。
AI對人類可能的危害並不是像電影小說一般,人工智慧產生了自我意識而與人類對抗,因為目前的人工智慧離這個目標相距甚遠。撇開這個疑慮不談,人工智慧仍然有三種可能造成危害的形式:人工智慧的「惡意使用」、人工智慧對任務的「誤解」,以及人工智慧「缺乏道德觀念」。
a.人工智慧的惡意使用很容易懂,就是人類把人工智慧當成一種工具,為了遂行私利而危害他人的利益。從這個角度來看,人工智慧就跟軍火武器電腦病毒一樣,能載舟亦能覆舟。
b.人工智慧對任務的「誤解」則是潛在更大的危機:大部分的人工智慧方法都建構在最佳化的技術之上,也就是人類告訴AI有一個目標,而AI的決策就會盡量去最佳化這個目標。這裡所謂潛在的危機,就是AI對人類給的目標的誤解(或是人類自己沒有釐清目標)。
例如一個真實的存在的狀況:某家航空公司從西雅圖飛香港中途停靠台北的班機,比從西雅圖直飛台北的班機來得便宜。如果你跟一個旅遊人工智慧代理人要求找到「西雅圖到台北快且便宜的機票」,它可能會選擇前者因為它從西雅圖到台比的確是最快最便宜的。但是它就沒有考量到乘客可能到台北後無法下機需要直飛香港再回來。
再舉一個「健康照護機器人」比較極端的例子,這樣的AI可能會建議主人應該要出門運動了,而人類偶而會用比較誇張的語氣來表達意願,如,「天氣太熱了要出門?乾脆把我的腳打斷吧」,AI聽到可能就真的服從命令把主人的腳打斷。當AI無法真正理解人類命令的真實涵意,類似的狀況就可能出現。
c. 第三種危機來自人工智慧缺乏道德觀念:建構在最佳化的AI往往使命必達。然而,若在訓練AI的時候沒有「教」它道德觀念,AI就有可能在目標最佳化的過程中做出違反道德的事情。例如,如果AI自動空拍機的目標大多是照出覆蓋率最高的照片,但是如果沒有隱私觀念,AI就有機會拍攝到侵犯他人隱私的照片。自動車如果目標是快速的到達目的,它可能就不會禮讓行人或救護車,因為禮讓跟「快速到達目的」的目標是有衝突的。
所以,如何能夠訓練AI擁有道德觀念,而且在目標與道德衝突時如何找到平衡點,是下一代AI需要面對的議題。
下一步的戰略規劃是什麼?
AI的崛起帶給人類的衝擊將會是前所未見的。所以,下一步的戰略規劃是什麼?個人淺見可以從幾個方向討論:
1.如果一個企業到目前為止還沒有引進巨量資料分析方法,建議即刻佈局資料蒐集與分析。如果已經引進資料分析但是還沒有到智慧型的預測,可以往AI+X的應用著手評估適合度,尋找最恰當的AI solution引進。在這裡碰到的問題往往不是solution不夠多,而是如何能夠找到最適合CP值最高的方式。讓原來跟AI距離遙遠的企業有機會引進智慧型的解決方案,相較之下是比較容易達成的任務。
2.如果一個新創公司希望佈局AI技術,除非有「秘密武器」(如大量資料,很強的領域知識(domain knowledge),或別人還未開發出的技術),否則在AI+X的戰國時代生存困難重重。
3.AI-Next是未來兩三年AI技術的戰場,對於學術界或致力於AI技術研發的公司都是兵家必爭,先做先贏的態勢。
例如Google DeepMind跟Facebook FAIR近兩年不約而同的提出的Memory-Augmented Neural Network的概念,就是希望利用引進「記憶」的因素在深度學習的架構中,能解決原來不能解決的問題。
4.AI-Then可能是中長期更會需要面對的問題,需要不僅是個人與企業、政府的投入於一些重要卻難營利的任務也是必須的。它不一定能帶來立即的利益,但是絕對是戰略佈局重要的一環。
在這個AI百花爭鳴的年代,大公司如Google,Facebook,Microsoft,IBM紛紛推出AI的library、平台,這些非常容易使用的套件使得AI(尤其是深度學習)的使用門檻大幅降低,卻也表示單單是應用深度學習套件或其他方法在某個應用上,已成為成功的必要條件卻非充分條件。
個人認為,AI技術與理論的理解與深耕、對於新技術新方法掌握的速度,並且能發展出獨特的「秘密武器」,才是未來能夠勝出的重要關鍵。
因此,我想大部分的人都會同意:擁有以上能力的人才,是AI的戰國時代最重要的資產。
本文由林守德授權轉載自其Facebook。
《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。
(觀點文章呈現多元意見,不代表《數位時代》的立場。)