揭秘小紮AI雄心:立誌將Llama3打造成行業新標杆

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數


騰訊科技訊 8月22日消息,據國外媒體報道,在人工智能領域,馬克·紮克伯格(Mark Zuckerberg)有著勃勃雄心,希望將Meta打造成該領域的領導者。然而,Meta目前麵臨一項挑戰,即如何向大企業推銷其大語言模型,並將Llama 3塑造為新的行業標杆。

Meta知道如何在Facebook和Instagram上為Away和Temu等品牌投放廣告。然而,若想讓Meta成為人工智能領域的領導者,它必須迅速掌握一項新技能,即如何向大企業推銷自己的大語言模型。

紮克伯格希望將Llama 3塑造成人工智能行業的新標杆。最初,他主要依賴其他科技公司來處理軟件銷售的問題,迄今為止,結果好壞參半。

在亞馬遜AWS上,Meta獲得的關注較小。AWS是全球最大的雲服務提供商,提供各種大語言模型。據知情人士透露,Anthropic的Claude是AWS上最受歡迎的人工智能模型。同時,微軟通常隻向已有數據專業知識的客戶推銷Llama,比如那些擁有內部工程師和數據科學家的公司。

蘭博基尼 vs 豐田

這些因素正對Meta構成壓力,促使其重新審視並加強其企業銷售和營銷策略,以直接麵向企業推廣其創新產品,特別是大語言模型Llama 3。曆史上,Meta對此類直接銷售模式持保守態度,但鑒於當前形勢,構建專屬的企業銷售和營銷團隊已成為勢在必行。

值得注意的是,Meta近期已與AWS、穀歌雲、微軟Azure等業界巨頭攜手,共同推出了Llama 3.1,這一舉措彰顯了其合作與開放的姿態。盡管如此,Meta仍需尋找新途徑,以更有效地將產品價值傳遞給更廣泛的企業客戶群。

業界觀察家對Meta的未來持樂觀態度。Cast AI的勞倫特·吉爾(Laurent Gil)比喻道:“當前,人工智能領域的‘蘭博基尼’非OpenAI莫屬,它吸引了所有人的目光。然而,Llama 3正致力於打造‘豐田’,這是更普及且實用的選擇。事實上,豐田的數量遠超蘭博基尼。” Cast AI是一家幫助企業削減雲成本的公司。

吉爾還表示,眾多企業在麵對各種各樣的人工智能模型時感到迷茫,並陷入了圍繞OpenAI的“炒作”中。他堅信Meta將脫穎而出,因為隨著企業逐漸意識到Llama作為低成本、高質量且專有性強的模型替代品優勢,其市場需求將日益增長。

Meta正在研究如何讓更多的企業使用Llama。據知情人士透露,最近幾周,Meta高層正與Snowflake緊密磋商,旨在擴大合作範圍,讓Snowflake的客戶能在其平台上利用自有數據訓練定製化的Llama模型。

盡管在由Lmsys與加州大學合作的人工智能模型評估項目Chatbot Arena中,Llama的表現暫居下風,落後於OpenAI、穀歌及Anthropic等強手,但這並未阻擋部分企業對其的接納與采納。據悉,高盛已計劃投入100萬美元,在微軟Azure平台上部署Llama以支持自動編碼工作;同時,亞馬遜也宣布,日本野村銀行和外包公司TaskUs正通過AWS運用Llama技術。

企業人工智能領域的資深顧問文·瓦施什塔(Vin Vashishta)評價道:“Meta正引領企業步入自建大語言模型的新紀元。”

Llama將成為新標準?

Meta正在花費數百億美元購買新的人工智能芯片,以強化其人工智能驅動的計算能力,然而,這種努力究竟將如何產生回報尚不清楚。

值得注意的是,Meta並未計劃直接麵向消費者或企業收取其大模型的訪問費用,而是選擇了開源軟件的形式發布其模型,這與OpenAI、穀歌等公司的商業模式形成鮮明對比。不過,紮克伯格曾提及,Meta可能通過雲計算公司的Llama銷售收入實現間接盈利。

紮克伯格還展望了人工智能對Meta廣告業務的潛在提振,並強調了若Llama能確立行業標準地位,將有效削弱競爭對手的攻勢。

在策略層麵,紮克伯格將Meta的開源舉措與Linux操作係統的成功相提並論,旨在推動Llama成為雲計算和新興技術領域的標準。為加速Llama在其他公司平台上的部署與應用,紮克伯格需巧妙穿梭於科技行業的複雜生態中,靈活應對與競爭對手的合作與競爭關係。

例如,穀歌雲計算部門雖提供Llama服務,但在數字廣告領域與Meta構成競爭。微軟Azure亦如此,盡管其也提供Llama,但還與OpenAI合作,後者的大語言模型是Llama的直接競品。然而,亞馬遜與Meta的關係則更為緊密,不僅是Meta的重要廣告客戶,還合作實現了在社交媒體上直接購買亞馬遜產品的功能。

作為AWS的長期客戶,Meta近年來持續加大在該平台的投入,近期更傳出雙方就擴大合作、年支出或超10億美元的談判,旨在鞏固Meta作為AWS主要客戶之一的地位。同時,Meta正就GPU使用折扣問題與AWS進行協商,以優化其大語言模型的訓練成本。數據顯示,Meta目前在AWS和Azure雲服務上的支出在2.5億到5億美元之間。

今年初,紮克伯格公開透露Meta已訂購35萬顆Nvidia H100芯片,並將在今年年底前交付。他還強調,Meta正積極構建基礎設施以支撐其雄心勃勃的人工智能戰略。

Meta和AWS早有合作

Meta和AWS已經合作銷售一款企業產品。大約在2019年,兩家公司合作銷售PyTorch,這一開源軟件庫由Meta專為構建人工智能應用而設計。三名前Meta員工表示,在短短幾年時間裏,PyTorch迅速崛起,成為研究導向市場中的佼佼者,與穀歌TensorFlow等競品並駕齊驅。

然而,Meta與AWS的合作曆程亦非總是一帆風順。據前Meta員工透露,在PyTorch開發和推廣期間,Meta方麵對AWS的銷售執行效率表達了不滿,認為AWS將PyTorch推向企業客戶的速度過於緩慢。

AWS通過Bedrock平台向客戶提供多樣化的大語言模型選擇,包括Meta的Llama、AWS自研的Titan,以及Anthropic和Cohere的模型等,旨在滿足不同用例需求。

亞馬遜發言人強調,提供多樣化的基礎模型選擇對於滿足各種應用場景至關重要。而Meta發言人則表達了對雙方合作的滿意態度,但未就Llama 3.1的具體使用率置評。

查看評論(0)