Google現在正利用機器學習辨識YouTube中出現的恐怖主義與暴力極端主義等內容。
這個人工智慧機制的引進,不僅牽涉到國家安全等政治外交層面,也和Google廣告商業模式息息相關。
成效:在使用者檢舉前就先下架
Google三月爆發AT&T、可口可樂、百事可樂、沃爾瑪、星巴克與GM等上百個大品牌撤銷YouTube和Google廣告聯播網廣告事件。原因在於這些公司的廣告內容出現在YouTube中的恐怖主義與暴力極端主義內容中,讓閱聽眾將兩者連結起來,影響品牌形象。
而YouTube的這項「漏洞」也成為一些新創的切入點,這些新創強調可以客製化地把廣告和合適的影音內容相連結,因此不會和恐怖主義與暴力極端主義的內容一起出現。
如台灣創意引晴就研發的影音內容辨識系統,不僅提供「人物」辨識,也提供手機與轎車「物件」,以及公園等「場景」等影像辨識服務。讓廣告主可「事先」知道該公司廣告會出現在什麼畫面上,避免因為「盲投」出現危機。
不過,現在Google正努力解決這個問題。Google開始應用機器學習技術識別暴力極端主義相關內容,YouTube小組審核了超過100萬部影片,希望能夠透過為系統提供大量的訓練實例,讓機器學習的應用效益達到最佳化。
Google最新提供的數據指出,直至今年九月的數據顯示,在因為含有暴力極端主義內容而強制下架的違規影片中,有超過八成的影片是在使用者提出檢舉前,而且跟八月相比,提升了8%,成效有明顯的成長。
教導機器辨識人類「行為」挑戰性大
這和現在已經應用在iphone X的人臉辨識系統差異很大。人臉辨識是針對人類臉孔,而針對恐怖主義內容,除了物品也需要針對人類的「行為」辨識。
而Google研究團隊目前正利用原子視覺化動作數據學習模式(Atomic Visual Actions,AVA),辨識人類的走路、爬山、說話與跳舞等行為內容。這牽涉到人類本身行為的姿態、人與人、人與物等三大「行為」分類。
更具挑戰的,是影片內容會受背景與語言字幕等不同脈絡有不同涵義,就像我們的語言文字。
像是一段恐怖攻擊事件的真實影片若是由BBC平台傳送,可能是對此行為的一個譴責性新聞報導,但若是被不同的平台,配上不同的前後脈絡,則可能轉變為對恐怖攻擊的讚揚。
人工專家審查仍至關重要
Google無法只等待人工智慧技術的進步,嚇阻恐怖主義影音內容散播,必須要短時間內就能有效的解決方案。因此雖然Google大喊AI First,但引入機器學習並不代表短期內機器將大量取代人工的內容審查,人類專家仍然具有重要角色。
這點我們可以從,Google合作的外部審查專業機構,將從63家再增加50家,將近一倍的數量增加看出端倪。
Google在部落格中也指出,「機器可以幫助識別有問題的視頻,但『人類專家』仍然在關於暴力宣傳與宗教或新聞價值的言論之間的細微決定中發揮作用。」
