揭秘小紮AI雄心:立誌將Llama3打造成行業新標杆
文章來源: 騰訊科技 於
- 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
騰訊科技訊 8月22日消息,據國外媒體報道,在人工智能領域,馬克·紮克伯格(Mark
Zuckerberg)有著勃勃雄心,希望將Meta打造成該領域的領導者。然而,Meta目前麵臨一項挑戰,即如何向大企業推銷其大語言模型,並將Llama
3塑造為新的行業標杆。
Meta知道如何在Facebook和Instagram上為Away和Temu等品牌投放廣告。然而,若想讓Meta成為人工智能領域的領導者,它必須迅速掌握一項新技能,即如何向大企業推銷自己的大語言模型。
紮克伯格希望將Llama
3塑造成人工智能行業的新標杆。最初,他主要依賴其他科技公司來處理軟件銷售的問題,迄今為止,結果好壞參半。
在亞馬遜AWS上,Meta獲得的關注較小。AWS是全球最大的雲服務提供商,提供各種大語言模型。據知情人士透露,Anthropic的Claude是AWS上最受歡迎的人工智能模型。同時,微軟通常隻向已有數據專業知識的客戶推銷Llama,比如那些擁有內部工程師和數據科學家的公司。
蘭博基尼 vs 豐田
這些因素正對Meta構成壓力,促使其重新審視並加強其企業銷售和營銷策略,以直接麵向企業推廣其創新產品,特別是大語言模型Llama
3。曆史上,Meta對此類直接銷售模式持保守態度,但鑒於當前形勢,構建專屬的企業銷售和營銷團隊已成為勢在必行。
值得注意的是,Meta近期已與AWS、穀歌雲、微軟Azure等業界巨頭攜手,共同推出了Llama
3.1,這一舉措彰顯了其合作與開放的姿態。盡管如此,Meta仍需尋找新途徑,以更有效地將產品價值傳遞給更廣泛的企業客戶群。
業界觀察家對Meta的未來持樂觀態度。Cast AI的勞倫特·吉爾(Laurent
Gil)比喻道:“當前,人工智能領域的‘蘭博基尼’非OpenAI莫屬,它吸引了所有人的目光。然而,Llama
3正致力於打造‘豐田’,這是更普及且實用的選擇。事實上,豐田的數量遠超蘭博基尼。” Cast
AI是一家幫助企業削減雲成本的公司。
吉爾還表示,眾多企業在麵對各種各樣的人工智能模型時感到迷茫,並陷入了圍繞OpenAI的“炒作”中。他堅信Meta將脫穎而出,因為隨著企業逐漸意識到Llama作為低成本、高質量且專有性強的模型替代品優勢,其市場需求將日益增長。
Meta正在研究如何讓更多的企業使用Llama。據知情人士透露,最近幾周,Meta高層正與Snowflake緊密磋商,旨在擴大合作範圍,讓Snowflake的客戶能在其平台上利用自有數據訓練定製化的Llama模型。
盡管在由Lmsys與加州大學合作的人工智能模型評估項目Chatbot
Arena中,Llama的表現暫居下風,落後於OpenAI、穀歌及Anthropic等強手,但這並未阻擋部分企業對其的接納與采納。據悉,高盛已計劃投入100萬美元,在微軟Azure平台上部署Llama以支持自動編碼工作;同時,亞馬遜也宣布,日本野村銀行和外包公司TaskUs正通過AWS運用Llama技術。
企業人工智能領域的資深顧問文·瓦施什塔(Vin
Vashishta)評價道:“Meta正引領企業步入自建大語言模型的新紀元。”
Llama將成為新標準?
Meta正在花費數百億美元購買新的人工智能芯片,以強化其人工智能驅動的計算能力,然而,這種努力究竟將如何產生回報尚不清楚。
值得注意的是,Meta並未計劃直接麵向消費者或企業收取其大模型的訪問費用,而是選擇了開源軟件的形式發布其模型,這與OpenAI、穀歌等公司的商業模式形成鮮明對比。不過,紮克伯格曾提及,Meta可能通過雲計算公司的Llama銷售收入實現間接盈利。
紮克伯格還展望了人工智能對Meta廣告業務的潛在提振,並強調了若Llama能確立行業標準地位,將有效削弱競爭對手的攻勢。
在策略層麵,紮克伯格將Meta的開源舉措與Linux操作係統的成功相提並論,旨在推動Llama成為雲計算和新興技術領域的標準。為加速Llama在其他公司平台上的部署與應用,紮克伯格需巧妙穿梭於科技行業的複雜生態中,靈活應對與競爭對手的合作與競爭關係。
例如,穀歌雲計算部門雖提供Llama服務,但在數字廣告領域與Meta構成競爭。微軟Azure亦如此,盡管其也提供Llama,但還與OpenAI合作,後者的大語言模型是Llama的直接競品。然而,亞馬遜與Meta的關係則更為緊密,不僅是Meta的重要廣告客戶,還合作實現了在社交媒體上直接購買亞馬遜產品的功能。
作為AWS的長期客戶,Meta近年來持續加大在該平台的投入,近期更傳出雙方就擴大合作、年支出或超10億美元的談判,旨在鞏固Meta作為AWS主要客戶之一的地位。同時,Meta正就GPU使用折扣問題與AWS進行協商,以優化其大語言模型的訓練成本。數據顯示,Meta目前在AWS和Azure雲服務上的支出在2.5億到5億美元之間。
今年初,紮克伯格公開透露Meta已訂購35萬顆Nvidia
H100芯片,並將在今年年底前交付。他還強調,Meta正積極構建基礎設施以支撐其雄心勃勃的人工智能戰略。
Meta和AWS早有合作
Meta和AWS已經合作銷售一款企業產品。大約在2019年,兩家公司合作銷售PyTorch,這一開源軟件庫由Meta專為構建人工智能應用而設計。三名前Meta員工表示,在短短幾年時間裏,PyTorch迅速崛起,成為研究導向市場中的佼佼者,與穀歌TensorFlow等競品並駕齊驅。
然而,Meta與AWS的合作曆程亦非總是一帆風順。據前Meta員工透露,在PyTorch開發和推廣期間,Meta方麵對AWS的銷售執行效率表達了不滿,認為AWS將PyTorch推向企業客戶的速度過於緩慢。
AWS通過Bedrock平台向客戶提供多樣化的大語言模型選擇,包括Meta的Llama、AWS自研的Titan,以及Anthropic和Cohere的模型等,旨在滿足不同用例需求。
亞馬遜發言人強調,提供多樣化的基礎模型選擇對於滿足各種應用場景至關重要。而Meta發言人則表達了對雙方合作的滿意態度,但未就Llama
3.1的具體使用率置評。