穀歌遭遇AIGC新難題:使用成本是傳統搜索的10倍

來源: 新浪科技 2023-02-22 19:54:02 [] [舊帖] [給我悄悄話] 本文已被閱讀: 次 (7413 bytes)



北京時間2月23日上午消息,據報道,不久前,Alphabet在演示聊天機器人(10.620,-0.09,-0.84%)時出現的失誤剛剛導致其市值蒸發1000億美元,現在,在穀歌搜索中整合生成式人工智能的計劃又要麵臨新的挑戰:成本!

當整個科技行業的高管都在討論如何運營ChatGPT這樣的人工智能服務時,高昂的費用卻成為他們不得不麵對的一個難題。這款由OpenAI開發的熱門聊天機器人可以針對用戶提出的問題直接給出答案,但該公司CEO山姆·阿爾特(13.960,-0.13,-0.92%)曼(Sam Altman)卻在Twitter上透露,這項服務的成本高得讓人難以接受——每次對話的計算成本達到2美分甚至更多。

Alphabet董事長約翰·漢尼斯(John Hennessy)表示,與大語言模型這樣的人工智能對話,其成本是傳統搜索的10倍,但通過一些調整措施有助於迅速降低成本。

分析師認為,即便可以通過基於聊天的搜索廣告創造收入,但由於這項技術會額外帶來數十億美元的成本,因而還是會對Alphabet的淨利潤產生不利影響。該公司2022年的淨利潤接近600億美元。

摩根士丹利估計,穀歌去年總計3.3萬億次的搜索量單次平均成本約為0.2美分。這一成本今後將會上漲,具體取決於人工智能貢獻的內容比例。例如,分析師測算,如果類ChatGPT人工智能能用50字的答案處理其收到的半數請求,穀歌的費用到2024年可能會增加60億美元。穀歌不太可能用聊天機器人來為維基百科等網站處理導航搜索。

其他分析師也得出了類似的結論。例如,專注於芯片技術的搜索和谘詢公司SemiAnalysis就表示,將類ChatGPT人工智能技術整合到搜索中可能花費Alphabet 30億美元,由於穀歌使用了自主研發的TPU芯片及其他優化措施,可以在一定程度上降低這項成本。

AIGC的成本之所以高於傳統搜索,主要原因在於算例消耗。分析師表示,這種人工智能技術需要依靠數十億美元的芯片,即使將這項成本平攤到幾年的使用周期中,仍會顯著增加單次使用成本。電力消耗也會增加成本,同時對企業的碳足跡目標構成壓力。

處理人工智能搜索請求的過程被稱作“推理”(inference),它通過神經網絡來大致模擬人腦的生物結構,借助之前的訓練數據推理出問題答案。

而在傳統搜索中,穀歌的網絡爬蟲會掃描互聯網,並匯總一個信息索引。當用戶輸入搜索請求時,穀歌就會提供存儲在索引中最相關的答案。

盡管麵臨成本壓力,但Alphabet的漢尼斯依然要接受這一項挑戰。本月早些時候,穀歌的老對手微軟在其雷蒙德總部舉行了高調的發布會,展示了嵌入在必應搜索引擎中的人工智能聊天技術。據估計,微軟的高管瞄準了穀歌91%的搜索市場份額。

一天後,Alphabet也在發布會上探討了如何改善其搜索引擎,但一段關於人工智能聊天機器人Bard的推廣視頻卻顯示,係統給出了錯誤的答案。受此影響,穀歌股價暴跌,市值蒸發1000億美元。

隨後有報道稱,微軟的人工智能威脅用戶,甚至向測試者示愛,這使得外界也加大了對微軟的關注。由於擔心“誘發”意想不到的答案,微軟也開始限製用戶的聊天次數。

微軟CFO艾米·胡德(Amy Hood)曾經對分析師表示,獲取用戶和廣告收入帶來的好處超過了將新必應提供給數百萬用戶產生的成本。“即便要增加成本,但這對我們來說仍是增量毛利潤。”她說。

作為穀歌的另外一個競爭對手,搜索引擎You.com的CEO理查德·索赫爾(Richard Socher)表示,為圖片、視頻和其他生成式技術引入人工智能聊天體驗和應用會將成本提高30%至50%。“隨著規模擴大和時間推移,技術成本會降低。”他說。

接近穀歌的知情人士警告稱,現在就對聊天機器人的具體成本下判斷還為時尚早,因為效率和使用量會隨著其中涉及的技術而存在很大差異,而且人工智能也已經為搜索等產品提供支持。

不過,埃森哲CTO保羅·多爾蒂(Paul Daugherty)認為,擁有數十億用戶的搜索引擎和社交媒體巨頭之所以沒有在一夜之間推出人工智能聊天機器人,成本確實是兩大主要原因之一。

“一是準確性,二是必須以合適的方式擴大規模。”他說。

權衡成本

多年以來,Alphabet等公司的研究人員一直都在研究如何以更低的成本訓練和運行大語言模型。

更大的模型需要更多的芯片來完成推理,自然會推高成本。人工智能在達到以假亂真的效果的同時,其規模也在快速膨脹。例如,OpenAI在ChatGPT的新模型中使用了1750億個參數,即算法需要考慮的不同值。成本也會因為用戶請求的長短而存在差異,具體長度以“令牌”或文字數來衡量。

一位資深技術高管透露,要讓數百萬用戶使用這樣的人工智能技術,目前仍需承擔極高的成本。

這位要求匿名的高管說:“這些模型的成本很高,所以下一階段的目標是降低模型的訓練和推理成本,以便將其應用到每一個應用中。”

知情人士透露,OpenAI的計算機科學家已經找到了通過複雜的代碼來優化成本的方法,從而提高芯片的效率。但OpenAI發言人尚未對此置評。

如果把眼光放得更長遠一些,如何在不犧牲準確性的情況下,將人工智能模型的參數數量縮減到目前的十分之一甚至百分之一,也是一個重要問題。

“怎樣才能以最有效的方式減少參數,這個問題仍然有待解答。”納維尼·拉奧(Naveen Rao)說。他曾經負責英特爾的人工智能芯片業務,目前通過他的創業公司MosaicML來降低人工智能計算成本。

與此同時,一些企業已經開始嚐試收費模式,比如OpenAI就為每月支付20美元費用的用戶提供更好的使用體驗。技術專家還表示,可以使用規模較小的人工智能模型來執行較為簡單的任務,穀歌目前就在探索這種變通模式。

該公司本月表示,他們將會采用LaMDA大型人工智能技術的小規模版本來為Bard聊天機器人提供支持,“大幅減少算例需求,使我們能夠服務更多用戶。”

在上周的TechSurge大會上被問及相關問題時,漢尼斯表示,開發更加專注的模型,而不是無所不能的服務,將有助於“控製成本”。

請您先登陸,再發跟帖!

發現Adblock插件

如要繼續瀏覽
請支持本站 請務必在本站關閉Adblock

關閉Adblock後 請點擊

請參考如何關閉Adblock

安裝Adblock plus用戶請點擊瀏覽器圖標
選擇“Disable on www.wenxuecity.com”

安裝Adblock用戶請點擊圖標
選擇“don't run on pages on this domain”