Google經常利用自家一年一度的開發者大會I/O,來展示其令人驚嘆的人工智慧。2016年,其推出內建Google Assistant的Google Home智慧音響。2018年,為企業接聽電話和安排約會的Duplex首次亮相。按照這樣的傳統,上個月,執行長Sundar Pichai宣佈推出了 LaMDA ,是一款 「可以依照任何話題展開對話」的人工智慧。
當時,Pichai展示了與紙飛機、冥王星交流是什麼樣的感覺。對於每一項查詢,LaMDA會用三到四個句子來予以回應,就像兩個人之間進行的自然對話一樣。Pichai表示,LAMDA將會逐漸融入到Google的其他產品之中,例如Assistant和Workspace,以及最關鍵的搜尋。
Pichai說:「 我們相信LaMDA的自然對話功能,有可能會徹底改變資訊和運算,讓它們變得更易於使用 。」
延伸閱讀:Google I/O 2021推高度客製Android 12、與三星合作新版WearOS,睽違兩年端出哪些牛肉?
LAMDA的此次演示為大眾提供了一道窗,讓我們得以一窺Google對搜尋的願景,而這個願景已超越了連結清單,並有可能改變數十億人對網路的搜尋方式。這個願景將以人工智慧為核心,它可以推斷出人類語言的含義,不僅能參與對話,還可以像專家一樣回答由多環節構成的問題。
在這次I/O大會上,Google還推出了另一款人工智慧工具,也就是所謂的 多任務統一模型(Multitask Unified Model,MUM) ,它可以在搜尋時,把文本和圖像考慮在內。Google副總裁Prabhakar Raghavan表示,有朝一日,用戶可以拍下一雙鞋的照片,並利用搜尋引擎詢問這雙鞋是否適合登山。
MUM可以生成75種語言的結果,Google聲稱這可以讓它對世界的瞭解更加全面。台上的演示,展示出MUM是如何回應查詢的,當用戶輸入「我已經爬過亞當斯山了,我想在明年秋天爬富士山,我該怎麼做?」這項查詢與一般的搜尋表述上有所不同,因為MUM的目標是為了減少找到答案所需的搜尋次數。MUM既可以對文本進行歸納也可以生成文本;它會拿亞當斯山與富士山進行比較,且知道為登山做準備可能需要相關的健身訓練、登山裝備推薦以及天氣預報方面的搜尋結果。
在上個月發表的一篇名為《重新思考搜尋:從業餘愛好者變成專家》(Rethinking Search: Making Experts out of Dilettantes)的論文中,Google研究院的四位工程師把搜尋設想成與人類專家的對話。論文提到了一個例子,搜尋「紅葡萄酒的健康益處和風險是什麼?」目前,Google會回覆一個重點清單。而這篇論文表示,未來搜尋引擎的回應可能會看起來更像一段話,闡述著紅酒可以促進心血管健康,但可能會弄髒牙齒,並且會補充相關的資訊來源與連結。論文顯示,回覆是文本形式,但可以容易聯想到口頭回覆的可能性,就像現今使用Google Assistant的體驗一樣。
AI難以突破歧視、刻板印象的複製
但過度依賴人工智慧來破譯文本也存在著風險,因為其依舊難以理解語言的各種複雜之處。用來生成文本或回答問題等任務的人工智慧,也是所謂的大型語言模型,已顯示出有著放大偏見,以及生成不可預測或有害文本的傾向。其中有一個模型,也就是OpenAI的GPT-3,已被用於為動畫角色創建互動故事,但在一個線上遊戲裡面,它也生成過牽涉到兒童性愛場景的文字。
作為去年發表並進行展示的一篇論文,來自麻省理工學院、英特爾以及Facebook的研究人員發現,大型語言模型表現出對種族、性別、宗教和職業存在著刻板印象的偏見。
擁有自然語言處理倫理學博士學位的語言學家Rachael Tatman表示,隨著這些模型生成的文本變得越來越有說服力,它可以讓大家相信自己正在跟能夠理解單詞含義的人工智慧交談。但當它生成對殘疾人士、穆斯林有害或自殺的文本時,這可能就會造成問題。Tatman回憶起一位圖書管理員曾教過自己如何去判斷Google的搜尋結果是否有效。她說,若Google把大型語言模型和搜尋結合起來的話,使用者就得被迫學會如何評估與專家AI的對話。
科技巨頭爭相打造大型語言模型
Google是一家建立在PageRank之上的公司。PageRank是公司共同創辦人Larry Page和Sergey Brin在1990年代後期,所研究創建出來的一種演算法。這種演算法需要依賴索引——這是一個利用演算法對網站進行排序和評估的過程。爾後,Google逐步將知識圖譜,一個龐大的資料庫,納入到搜尋結果裡面。
近期,Google開始把語言模型納入到搜尋裡面。2019年,該公司把一種名為BERT的模型植入到搜尋裡,以便回答對話式的查詢、建議搜尋,並對出現在搜尋結果下方的文本進行摘要。當時,Google副總裁Pandu Nayak稱這是五年來搜尋領域取得的最大進步,也是「搜尋史上最大的躍進之一」。微軟的Bing在提供搜尋結果時,也用到了BERT。
BERT的引入,在科技巨頭之間開啟了一場競賽,大家都在爭相創建出規模更大的語言模型,力拚在性能排行榜上能取得更高的排名。不久之後,百度推出了Ernie,Nvidia推出了Megatron,微軟推出了T-NLG,OpenAI推出了GPT-3。工程師通常會透過參數的數量,也就是深度學習系統中人工神經元之間連接的度量來評估這些模型。BERT包含了數億個參數,GPT-3的參數則高達1,750億個。今年1月,Google發佈了一個帶有1兆參數的語言模型。在Google今年的I/O活動上,Raghavan稱在參數的數量上,MUM比BERT強大1,000倍。
在《重新思考搜尋》那篇論文中, Google研究人員稱索引是現代搜尋的馬車 。但他們仍設法利用能理解更多查詢、更龐大的語言模型來消除索引。
比方說,知識圖譜可以針對事實問題提供答案,但那只針對web的一小部分進行了訓練。 使用更廣泛的web語言模型,將可以讓搜尋引擎提出建議、檢索文本、回答問題並完成任務 。《重新思考搜尋》該篇論文的作者表示,這種方法有可能帶來「具變革性的思維轉變」。
這樣的模型並不存在。事實上,作者表示這需要創建出通用的人工智慧,或在資訊檢索和機器學習等領域中取得進步。此外,他們希望這種新方法能夠從多個角度提供權威答案,清晰地披露來源且不帶偏見。
Google發言人把LaMDA和MUM說成是Google下一代語言模型研究的一部分,且表示MUM目前正在內部開展試點,來幫助大眾查詢數十億個主題。在被問及《重新思考搜尋》那篇論文與LaMDA、MUM的關係時,這位發言人表示,Google Research並沒有為Google產品設定方向,進入Google產品(如搜尋)的機器學習通常是作為補充,而非取代現有產品。
「 他們的野心比展示廣告領域要大多了 。」搜尋顧問Michael Blumenthal說道。
搜尋的大躍進讓SEO相形失色
不可避免地,Google搜尋演算法的任何變化都會影響到廣告業務核心。該業務去年為Google創造了1,470億美元的收入。搜尋顧問Michael Blumenthal表示,關於登山靴的MUM演示表明,Google希望在連接企業與消費者之間發揮更大的作用。上個月的另一個變化是,Google引入了與Shopify的集成,將170萬商家的商品帶到搜尋結果裡面。2019年,外賣公司DoorDash和Postmates已經進入到搜尋結果裡面。
20年來一直為企業提供搜尋策略諮詢服務的Blumenthal指出,Google搜尋結果已經從PageRank提供的連結清單,演變為把廣告、知識面板、地圖、影片和AR納入在內。
這種轉變導致了所謂的 零點擊搜尋(zero-click) 興起。零點擊搜尋,是指大眾將不再靠點擊進入網站來完成一次web搜尋。這讓Google能夠在不需要使用者離開Google的情況下獲得廣告收入。數據公司Similarweb估計,去年在近三分之二的Google搜尋當中,用戶都沒有點擊進入到另一個頁面;在行動裝置上,點擊率(click-through rates)尤其低。
Blumenthal在談到Google正考慮進行的搜尋變革時表示:「在我看來,他們的野心要比展示廣告領域大多了。他們喜歡將各方連接起來進行交易,所以我把這看作是極大地增強了這一點。」
強調用自然語言或圖像進行搜尋的變化,可能會讓使用者不再把注意力放在關鍵字上,且還會破壞價值數十億美元的SEO業務 ——目前各企業仍藉由SEO讓自己靠近搜尋結果的前端。
部分搜尋引擎最佳化公司一直在為自然語言的未來做準備。Copysmith.ai是一家總部位於美國阿拉巴馬州伯明罕的新創企業,它利用GPT-3來為網站生成SEO標籤等。其執行長Shegun Otulana表示,「Google最近的舉動並非是一種威脅,而是整個人工智慧領域又往前邁進了一步。這證明我們正朝著正確的方向前進。」
Blumenthal則表示,I/O大會所發佈的公告可能需要數年的時間才能兌現承諾,但他同時也表示,有一點越來越清楚,Google想要的不僅僅是事實和連結的集合,而是希望自己更像一位能夠回答複雜問題的專家。「唯一的問題是,他們什麼時候能到達那裡。」他說。
大型語言模型恐成為社會隱憂
Google把大型語言模型作為商業戰略和研究重點的做法,在公司內部引起了衝突。最值得注意的一點是,Google Ethical AI團隊的兩位前領導人Timnit Gebru和Margaret Mitchell,他們在共同撰寫了一篇強調對此類模型的擔憂的論文之後就被迫離職了。除此之外,這篇論文引用的研究表明, 大型語言模型會延續人類的偏見和刻板印象,並可能導致氣候變化 。該論文稱,隨著語言模型變得越來越龐大,糟糕的數據標記和管理實踐會演變成更大的問題。最重要的是,該論文還指出, 大型語言模型對社會造成的危險,最有可能落在被邊緣化的社群身上 。
今年1月,另一篇批評大型語言模型的論文作者表示,Google法律和政策團隊的干預「非常陰險」。今年3月,Google DeepMind的研究人員發現, 大型語言模型可以透過傳播刻板印象、失業和虛假資訊,在創作者沒有任何惡意的情況下為社會帶來危害 。
本文授權轉載自:36氪
責任編輯:文潔琳、錢玉紘