你準備好跟AI機器成為同事了嗎?

2020.03.23 by
Bastiane Huang
Bastiane Huang 查看更多文章

目前在舊金山擔任 AI/Robotics新創公司OSARO的產品經理,專注於開發機器學習軟體,用於機器人視覺和控制。擁有近10年產品及市場開發管理經驗,並在美國《機器人商業評論》及《哈佛商業評論》發表文章及個案研究。如果你也對Robotics 2.0(AI-Enabled Robotics)、產品管理、Future of Work有興趣,歡迎追蹤bastianehuang.substack.com

你準備好跟AI機器成為同事了嗎?
FeelGoodLuck via shutterstock
AI技術在職場上的應用越來越廣,但缺乏同理心、透明度等人機互動的「副作用」卻依舊懸而未解,在邁入人機共事的時代前,我們要走的路或許還很漫長。

人工智慧賦予機器更多自主判斷能力,也造成人和機器互動關係的巨大變化,我們該如何面對人機共事的新時代?有一天,我們或許要聽從AI演算法的指示來完成人力工作;其實,這看似科幻小說的場景,已經是正在發生的進行式。

機器彷彿是我們最忠實的員工,一年365天從不抱怨;只要按下一個按鍵,工作就會自動完成。但你是否曾經想過:有一天,你可能會為機器工作?

想像有一天,我們聽從AI演算法或機器的指示,來完成人力工作;而這看似科幻小說的場景,其實已經在世界上的許多角落開始發生了。

推薦閱讀:人機協作時代來臨,你準備好了嗎?

場景1──用演算法管理員工(Algorithmic Management)

越來越多的公司開始使用演算法來管理員工(Algorithmic Management)。像是Uber或Lyft這樣的分享經濟公司,已經率先開發出許多自動工具,來管理遠端工作人員;包括使用者評分系統,以及自動向駕駛提醒或建議下一步動作的系統等等。

在物流業中,UPS和Amazon等公司正在使用自動化系統追蹤員工、並且優化貨物處理量;這些演算法收集工作人員的資料,並做出(半)自動化的決策來提供即時激勵,以達到更高的產出。

有一些新創公司,也開始提供監視員工、或是管理駕駛行為的AI解決方案。與人工監督相比,這些自動化技術更容易擴展到更多營運據點,因此也被越來越多的公司採用。

場景2──為AI演算法工作的藍領勞工

之前我談到過機器學習(ML)主要有三種類型,包括:

  • 監督學習(Supervised Learning)
  • 無監督學習(Unsupervised Learning)
  • 強化學習(Reinforcement Learning)

直到今天,仍有超過90%使用中的ML演算法是以「監督學習」為基礎。(延伸閱讀:給產品經理的 AI 開發指南

換句話說,多數AI演算法需要從標記好的訓練資料中學習。為了提供標記過的訓練資料,有一個高成長的行業應運而生:由人工標記影像或聲音資料,以便機器能夠消化和學習。

Scale AI」是眾多與標籤工作者合作,對資料進行分類,以用於訓練AI模型的新創公司之一;該公司成立僅有三年,卻在最近融資獲得高達1億美元的資金。

Scale與大約三萬名散布世界各地(大多在工資較低的國家)的契約工作者合作,為自動駕駛汽車和其他AI公司(包括WaymoAirbnbLyft等)提供標記訓練資料的服務。

場景3──遠端控制和模仿學習(Imitation Learning)

美國新創公司Cobalt的保全機器人。
Cobalt Robotics

在使用大量資料進行訓練時,深度學習的效果優於傳統機器學習;然而,獲取高品質的訓練資料通常很困難、而且成本相當高昂。

解決資料效率問題的方法之一,是使用模仿學習(Imitation Learning),也就是「讓機器從專家的示範中學習」。

FortressIQ是應用模仿學習技術,為顧客自動化公司流程的美國新創企業之一;他們的系統可以分析人類和軟體的互動,以便之後將這些流程自動化。

另一方面,美國新創公司Cobalt提供利用機器學習來執行巡邏工作的保全機器人(上圖)。這種機器人可以識別異常情況,也能讓工作人員遠端監控、並在必要時接管控制權。

AI讓機器變得越來越聰明,不再需要人類的一個口令一個動作;在某些領域中,甚至能夠自動下指令給人類,而這些新型態的人機互動,正在真實上演之中。

但是,我們也開始看到這些新形態人機互動所帶來的「副作用」:

演算法缺乏透明度和同理心

研究者Lior Zalmanson和Robert W. Gregory在最近的一項研究中發現,Uber出租車司機都認為,演算法非常瞭解他們,但他們對演算法的原理和決策依據卻知之甚少。

此外,司機們也感覺到演算法的決策有些不人性的地方;他們質疑這個系統的公平性,尤其在他們沒有得到明確解釋、卻遭到處罰的情況下特別明顯。

有許多其他勞工也覺得自己被演算法監視。他們不知道這些監控資料會用在什麼地方,也不知道工作分配、評分或報酬是否公平;如果不公平,他們也不知道有沒有什麼途徑可以提出抱怨。

「缺乏透明度」一直是AI的主要問題之一。

用這些自動化工具來管理員工,或許確實更有效率及擴充性;但生產力不應該是唯一的目標,必須也考慮到資訊的透明、以及對員工的同理心。

人與機器的角色責任分配不明確

以保全機器人為例,在機器人無法處理的情況下,人類的介入可能會有關鍵作用;但隨著機器人變得越來越聰明,機器可能會得出與人類不同的結論。

人類永遠能夠做出比機器人更好的決定嗎?誰有最終決定權?

另一個備受關注的例子:無人駕駛車。誰應該在自主的無人車中做決定?是車子本身、備用安全駕駛員、遠端監控的工作人員、還是乘客本身?

在什麼情況下、什麼時候介入?如果你只有一瞬間的反應時間,答案會有所不同嗎?誰應該對任何後果負責?科技公司?安全駕駛?還是設計演算法的工程師?

結語

雖然研究人員正在研究轉移學習(Transfer Learning)和元學習(Meta Learning),以設計能夠「學習如何學習」的AI模型;但老實說,我們離完全自主的人工智慧還很遠。

在可預見的將來,我們仍然需要標記資料,讓機器變得更加自主。我們需要調整自己,與時俱進,我們需要學習與AI機器一起共存的最佳方式。我們準備好迎接如此劇烈的社會變革了嗎?我們可以做些什麼來創造我們想要的未來?

(本文由Bastiane Huang授權轉載自其Medium

責任編輯:陳建鈞

《數位時代》長期徵稿,針對時事科技議題,需要您的獨特觀點,歡迎各類專業人士來稿一起交流。投稿請寄edit@bnext.com.tw,文長至少800字,請附上個人100字內簡介,文章若採用將經編輯潤飾,如需改標會與您討論。

(觀點文章呈現多元意見,不代表《數位時代》的立場

每日精選科技圈重要消息