ChatGPT加入搜尋後,會顛覆Google嗎?
這是過去幾週裡,在科技產業圈裡熱議的話題。
1月3日,科技媒體The Information爆料了人工智慧研究實驗室OpenAI與微軟Bing最新的合作計劃。兩位直接參與該計劃的人士稱,微軟正與OpenAI一起研究一款具備AI對話能力的新版Bing搜尋引擎,預計將於3月底前公佈。該版本將融合了OpenAI最新推出的對話大模型ChatGPT,與以往單純羅列網頁鏈接的搜尋模式不同,ChatGPT可以直接回答搜尋查詢。
DA Davidson分析師甚至因此給予了微軟「買入」評級,並稱,短期內OpenAI的ChatGPT,將會轉化為Azure的增量。從長遠來看,將ChatGPT功能整合到必應(Bing)可能會為微軟提供十年一次的推翻谷歌搜尋主導地位的機會。
在此合作之前,微軟一直出錢出力,支持OpenAI業務。2020年,微軟以10億美元投資OpenAI。同年,微軟Azuer雲端也成為了OpenAI的獨家算力夥伴。
在此之前OpenAI曾一度成為Google雲端的五大企業客戶之一,年單1.2億美元。不過,微軟收購OpenAI之後,似乎從微軟拿到了極低的雲端計算折扣。有數據顯示,在2021財年中,OpenAI在微軟產品上的開支僅為92000美元,而以OpenAI運維、研發GPT-3和GPT-3.5等大模型的進度來看,雲端計算用量並未有明顯下降。
與Bing的合作被曝出之後,OpenAI在1月6日早些時候又傳出出售股票的消息。據《華爾街日報》報導,OpenAI正在與Thrive Capital、Founders Fund兩家基金談判,以290億美元的估值出售至少價值3億美元的股票。2021年,OpenAI員工向紅杉資本、老虎環球出售股票時的估值約為200億美元。
AI對於搜尋行業太超前?
既然通用大模型如此厲害,為何在搜尋上積累最深的Google不做,畢竟要論搜尋,Google在業內有絕對優勢。
據《紐約時報》報導,ChatGPT發布之後不久,Google執行長Sundar Pichai就在內部動員研究人員團隊想辦法應對ChatGPT,並宣布這種情況是「紅色代碼」的威脅。
其實Google也並非沒有嘗試,在2021年5月的I/O大會上Google就展示了語言類通用大模型LaMDA,並持續對其進行迭代研發。然而直至目前,Google都沒有向公眾發布LaMDA,Google方面稱,部分原因在於LaMDA目前尚不完美,其中存在較多錯誤。
事實上,在大模型尚未成熟的時代,搜尋引擎就已開始嘗試AI技術了。在查詢過程中,搜尋引擎利用自然語言處理(Natural Language Processing,NLP)分析和理解用戶輸入的查詢詞語。在搜尋過程中,利用深度神經網絡(Deep Neural Networks,DNN),解決「隱式搜尋」問題。
「隱式搜尋是百度內部的說法,也可以叫做『真正的語義搜尋』。」一位百度搜尋技術專家告訴虎嗅,隱式搜尋不再是單純的字面搜尋,而是利用AI分析用戶關鍵詞語的深層意思。例如,搜尋「現實版鋼鐵俠」,得到的搜尋結果就都是馬斯克相關的內容。
此外,Google、百度、Bing等還利用AI實驗了類似ChatGPT的AI功能,使搜尋呈現出的結果不只是羅列網頁,更能從搜尋結果中篩選內容,直接回答用戶的問題。
例如搜尋「ChatGPT是什麼」。
Google會在側邊欄直接引用維基百科:「ChatGPT是由OpenAl開發的一個人工智慧聊天機器人程序,於2022年11月推出……」
百度則會篩選搜尋內容,並摘取答案直接回答在第一條的顯著位置:「聊天機器人,chatgpt是OpenAl開發的一個大型預訓練語言模型……」
不過這種技術在搜尋行業並沒有得到廣泛認可,甚至沒有統一的名字。「你可以管這種技術叫精準搜尋,也可以叫唯一答案或阿拉丁。」
即便是ChatGPT搜尋,也仍存在一些問題。
首先,AI挑選出的內容很難確保准確性,連OpenAI的CEO Sam Altman都認為,「現在依賴它(ChatGPT)來做任何重要的事情都是錯誤的。」 如果把ChatGPT提供的搜尋結果作為「唯一答案」呈現給用戶,卻無法保證其準確性的話,那麼在錯誤的答案面前,再好的交互體驗,都會成為笑話。
此外,有的時候用戶使用搜尋引擎的目的是直接得到答案,比如你搜「ChatGPT是什麼」時,你想看到的就是一個定義。但當你搜「關於AI通用大模型的技術文章」時,你可能需要的是蒐集廣泛、全面的資料,如果AI篩選了部分內容,則可能影響你在搜尋結果中博採眾長。
更重要的是經濟帳
不過,雖然搜尋引擎很早就融入了AI技術,但卻很難有更深入的應用,其中的原因就是算不好經濟帳。
通用AI大模型的研發、運維投入都不是小數目,更別說加入了搜尋。
「搜尋」是一項開銷巨大的業務,要利用爬蟲從網路海量數據中抓取搜尋結果,背後需要大量的算力支持。據業內人士透露,百度搜尋處理的網頁數量在七八年前就已達到千億級別。服務器用量超過一萬台,每年純設備成本超50億。如果算上研發、運營和維護的人工成本,總開銷可能會接近100億。雖然近兩年服務器成本或有下滑,但人力成本會一直隨著通脹逐年上升。
而這只是不包含ChatGPT情況下的純搜尋成本。
數據顯示,GPT-3的訓練成本約1200萬美元,而ChatGPT的運行成本大概是單輪迴答(Single Turn)幾美分,聽起來不多,但疊加到搜尋引擎每天處理的數億、數十億次搜尋中,產生的開銷就高得過分了。如果按照每天10億次搜尋量來計算,把ChatGPT的回答成本壓到最低的1美分,那麼按照現在的匯率看,這樣一個搜尋引擎2天的「答題成本」就要一個半「小目標」。
由於ChatGPT的訓練並不是基於非實時更新的數據庫(數據皆採集於2021年以前),它的搜尋功能無法解答2021年以後的新問題。目前要對ChatGPT進行實時訓練,就要面臨新的技術挑戰和成本問題。
不過也有AI行業專家認為,實時更新的AI搜尋引擎實用價值並沒有想像中那麼大。雖然網路中每天新增的數據量很大,但真正有價值,值得沉澱下來的知識非常有限。用戶對於這些知識的需求,也是隨時間推移階段性增長的。這樣就可以把重新訓練大模型或更新數據庫的時間拉長,從而攤薄成本。
那麼花大價錢融入搜尋引擎的ChatGPT能帶來多少回報呢?
與上邊提到過的「精準搜尋、唯一答案、阿拉丁」技術相似,ChatGPT也無法直接提供經濟效益。曾經的谷歌廣告團隊負責人Sridhar Ramaswamy就表示,ChatGPT的使用,從一定程度上阻止了用戶點擊帶有廣告的谷歌鏈接。Google在2021年的廣告業務收入為2080億美元,佔Alphabet總收入的81%。
為何Bing可以去做與ChatGPT結合的嘗試?
「單看搜尋業務,國內頭部搜尋引擎的利潤率大概在65%左右。」一位搜尋行業專家向虎嗅透露,雖然成本會隨著服務器和人員的多少增減,但要保證搜尋引擎可用,單個服務器的成本差距不大,廣告規模卻會差很多。因此營收規模越大,利潤率也越高。放在任何一個成熟的海外市場,頭部搜尋引擎的利潤率也都差不多是這個數。
據微軟財報顯示,在截至2022年6月的財年數據中,搜尋、MSN.com和其他新聞產品的廣告收入共116億美元,其中搜尋業務佔比較大。相比之下,Google搜尋業務的同期收入至少是Bing的10倍。
據海外多家調研機構的統計顯示,Bing在美國本土的市場佔有率遠低於Google,目前全球搜尋市場中Bing的市佔率不超過10%,而Google的市佔率保守估計也不低於80%。從市佔率看來,Bing和Goggle二者的競爭關係似乎並不明顯。
因為市場佔比小,搜尋利潤率相對較低,Bing很自然地不承擔過多的營收壓力,也就可以放心大膽地嘗試ChatGPT這種未來的顛覆式創新,而不需要考慮太多成本。
技術創新的故事就是如此充滿戲劇性和殘酷性。有時候賭對了一個技術路線,就能贏下未來十年甚至幾十年的商業戰爭。而原有技術路線的優勢者,往往由於自身的路徑依賴,反過來被自己的優勢地位掣肘,難以在新技術上勇往直前。正如曾經的光刻機霸主尼康賭錯了技術路線,在浸潤式光刻機上被荷蘭ASML公司捷足先登,喪失了此後幾十年的市場領先地位;諾基亞在智慧手機時代被後繼者超越,跌下神壇。
ChatGPT大規模商用後會怎麼樣,誰也不知道,而一旦爆發,將是顛覆式創新,誰贏下了這場賭注,誰就能贏下下一個人工智慧時代。
本文授權轉載自:虎嗅網
責任編輯:傅珮晴、錢玉紘