將我的博客複製一份至《海外博客》
由於數據量較大,請您耐心等待複製完成
複製
正文
為什麽我們相信英偉達能到 5 萬億
(2024-08-18 08:34:44)
下一個
文章來源於:拾象
作者:李廣密,李雙星
對於一級市場,我們有一個很深的體會:今天很難判斷 AI 創業公司能否顛覆巨頭,很多 AI Start-up 很少能做到完整的產品商業閉環,更多是在給老公司打樣、站在巨頭的陰影下。因此,AI 早期的敘事下,更多的價值是被大公司捕捉到的。 而在二級市場,我們能明顯感受到的是,AI 正成為驅動科技股增長的力量。例如,Mag 7 中每一家公司都有自己的 AI 布局,且有極高潛力充分受益於這波 AI,尤其是英偉達,因而這些公司在 2023 年的增長遠超過 S&P 500 和 Nasdaq 100。拾象推出的 AGIX Index 因為追蹤的是真正受益於這一波 AI 的公司,在 ChatGPT 發布以來,相比於其他的幾個科技指數,它的表現也是最好的。AGI 到底有多大是今天最大的非共識。iPhone 在 2008 年上市,這一年 Apple 公司的股價從 8 美元漲到了 10 美元,而今天,Apple 的股價已經達到 230~240 美元。在 16 年的時間裏,Apple 公司的股價漲了 15~16 倍。當一個大的科技革命到來時,我們永遠無法預測它所帶來的增量和長期的投資回報,這也是為什麽我們堅信英偉達估值遠沒有飽和、將達到至少 5 萬億美元市值的底層邏輯之一。在這篇分享中,我們也對英偉達的 5 萬億之路進行了拆解。過去 10 年,1% 的美股頭部科技公司貢獻了美國科技股 99% 的回報。2013 年,美股大概有 1,700 家科技公司,當時的總市值為 4.2 萬億美元,現在美股科技公司的總市值漲到了 20 萬億美元,但頭部的 1% 差不多是由大概 10 家公司貢獻的,從 2 萬億漲到 18 萬億美元,基本上相當於這頭部的十幾家公司貢獻了漲幅的 99%,這些公司無疑都抓住了移動互聯網和雲計算這兩波關鍵的技術變革。這也決定了拾象的策略是:隻專注於下注大賽道下的頭部公司,且下注比較重。拾象在一級市場也已經投了一批最優秀的頭部獨角獸公司,它們的總估值加起來超過了 6000 億美元。毫無疑問,AI 領域一定會誕生下一代頭部科技公司,power law 也在 LLM 領域被驗證。投資邏輯 2: AI-native 是未來 10 年的科技投資範式複盤過去 2 年 LLM 領域的發展,AI 一定會是接下來科技投資的核心驅動力。ChatGPT 發布以來,很明顯 AI 驅動了美股科技股的增長,Mag 7 在 2023 年的增長其實是超過了 S&P 500 的:Mag 7 的每一家公司都有自己的 AI 布局,且有極高潛力充分受益於這波 AI,尤其是英偉達。我們也對比了幾個指數,從 ChatGPT 發布以來,AI 含量越高的指數增長就越優秀。哪怕把 QQQ 和納斯達克 100 的 IT 板塊單獨拆分出來,這些指數的表現也會更好。 我們最近有一個很強的體會是:今天我們很難判斷 AI 創業公司能否顛覆巨頭。比如,手機還是我們未來 3-4 年裏最核心的設備,今天很多的 AI 消費設備是替換不了手機的。其次, AI 創業公司還是比較燒錢的,沒有以前廣告平台的商業模式好,而且巨頭的卡位也很好。因此,我們認為第一波敘事受益的還是巨頭,二級市場成熟的科技公司機會很大,從今天的 AI 投資敘事來看,大基建邏輯下的頭部公司是最值得配置,新一代 AI 唱主角的公司的序幕還沒有正式展開,為了更好地量化這種趨勢,我們針對 AGI 做了一個追蹤指數 AGIX Index ,ChatGPT 發布以來,相比於其他的幾個科技指數,它的表現也是最好的。我們也希望 AGIX 能夠成為大家衝浪未來 AGI 黃金十年的工具。過去兩年,拾象團隊專注在大模型這一個環節做了很多研究,我們在大模型研究上的投入至少已經達到了 1 萬小時。最近幾個月我們也在做大模型應用場景的調研,我們有一個很強的感受就是:矽穀的很多一級 AI 公司都是在 AI feature 方麵進行創新的,但很少有公司做到了完整的產品商業閉環,而有可能是在給老公司打樣。就連 OpenAI 這樣的大公司也都在巨頭的陰影之下:GPU 受限於英偉達,infra 基建受限於微軟,GPT 企業級市場也要靠微軟的銷售,到了 to C 端其實就是 iPhone 上的一個 feature。因此,我們認為在 AGI 鏈路中,ToC 的很多果子會被 Apple 摘走,而 ToB 的很多果子則會被微軟摘走。• Adobe 從轉雲之前隻是一個當年從一個幾十億美金的傳統軟件公司,但轉雲之後,它的商業模式、市場規模、增速都有變化,並且一躍成為了一個差不多 3000 億美金的公司;• 海康威視在上一波計算機視覺的變革中,從賣設備轉為賣係統,商業模式變得更加 recurring,利潤率和估值倍數都變高了;所以,我們相信 AI 肯定也會帶來類似的故事,但這個大幕還沒有真正展開,我們很期待 AI 能改變更多傳統行業公司的商業模式。現階段大家還沒有對 AGI 的定義和理解達成一個共識,我們聽過的最好的一個定義是:AGI 能在 90% 的行業,超過 90% 的專家,完成 90% 有經濟價值的工作。其實這三個 90% 還是很激進的,但它代表了一種願景。另外,AGI 不完全是一個商業問題,它還兼具了科學發現的屬性。它的背後是永無止境的研究發現精神,不斷地探索新的能力邊界。更抽象地來說,AGI 是怎麽用能源和芯片來產出智能?未來各大公司比拚的就是智能產出的效率和能力到底有多高,是否可以無限產出幾億的新勞動力?從曆史上看,科技進步是創造增量價值最關鍵的要素。有一個有意思的現象是:曆史上每一波技術變革的頭部公司市值都會比上一波頭部公司的市值再加一個 0。10 年前,投中一個 10 億美金估值的獨角獸就很厲害,但今天,很多公司半年內就成為了獨角獸、甚至一出生就是10 億美金估值。2010 年前後 Apple 的市值也才 2000 多億美金,那個時候,我們根本不會想象到全球還會有萬億美金的公司,就像我們今天也不會想到未來可能會出現 10 萬億美金的公司。在 2016 年的 AI 投資熱潮中,英偉達從 200 億美金漲到了千億美金市值,但是我們也無法想象英偉達今天可以達到 3 萬億美元這麽大。所以,今天 AI 領域最大的一個非共識就是:其實我們並不知道 AGI 到底有多大。之前軟件產品都是按照人頭數定價的,比如一個人 20 美金,但未來可能會按照結果產出來定價,比如 AI 幫我的工作創造的增量價值是 1 萬元,那 AI 技術拿走其中的 5-10% 是很合理的,其實現在電商和廣告平台已經在按結果付費了。我們認為,未來的工作任務很可能是按結果付費的,這就相當於在增量的 GDP 裏麵抽稅了。判斷 2: AI 是拉動未來 15 年全球增長的關鍵力量AI 和 AGI 一定是未來 10-15 年 GDP 的最強拉動力。結合之前 Sam Altman 的觀點,我們也有一個預測:AI 有機會在 10-15 年內讓全球的 GDP 翻倍,從今天的 100 萬億美元漲到 200 萬億美元,但今天 100 萬億的 GDP 中和 AGI 浪潮直接相關的可能還不到 0.1%,離解鎖 90% 還有很遠。另外一個計算方法是:大模型賦能或顛覆的其實是 “知識工作者” 這個群體,簡單地說就是全球每天在辦公室工作的 10 億白領。從曆史上看,農業的機械化已經讓 90% 的農民不用再種地了,我們認為這一波 AI 技術基本上能夠讓這些白領 90% 的日常工作內容實現自動化。坦白來講,絕大部分知識工作者的內容也是相對簡單、機械的重複,所以,就像自動駕駛在很多情況下的安全水平已經超過司機的平均水平那樣,如果可以“造出” 3 億的白領,那未來電費和芯片的成本就可以替代掉每個白領 3 萬多美金的年薪,也就是 10 萬億美元級別的收入,如果要對應到市值,這個數字還要再乘以 10。主觀上,我們更期待的是 AI 能創造出李白和杜甫。平均每 1000 萬人中,可能會有一個像李白、杜甫這樣的天才,而 AI 也是一個概率模型,隨著模型能力解鎖、如果能從根本上提升 AI 的審美和創造水平,就能更批量地創造出李白和杜甫了,那這將成為一個新文化和創意湧現的時代。很多人關心現在 AI 處在什麽階段,拾象團隊一個很深的體會是:全球 AI 大模型目前還處在大基建的初期,也是人類 AGI 基建的早期階段。為什麽基建很重要?過去中國的 4G、5G 和智能手機都是一種基建,隻有在電信基建完成後,才有了短視頻和移動支付應用的大爆發;公路、鐵路基建帶來了 電商和快遞大爆發;城市化基建帶來了外賣、本地生活消費的大爆發。也有人會問 AGI 應用為什麽還沒有大爆發,我們的答案也很清晰:因為算力的基建還不夠,算法和數據一直在等算力基建。整個 2023 年全球 GPU 的消耗時間,如果按照 2 億人的基數算,平均每人每天隻能算 1 分鍾,我們相信它在未來很有可能會像短視頻一樣滲透到 30-50 億人,每人每天消耗 1 小時的算力,所以我們目前還處於 AGI 大基建的早期階段,而 AI 是一個供給驅動型的市場。今年,矽穀的一線大模型公司已經擁有了 3.2 萬張 H100 充分互聯的 GPU 集群,再加上它們部署的小集群,年底的 GPU 總量已經超過了 10 萬張,在明年的競爭格局中,第一梯隊的入場門票就是 10 萬張卡充分互聯的單體集群,這個數字一點也不誇張,而且是一個單體的充分互聯集群。極有可能在 2027-2028 年,會有 2-3 家公司建造出 1000 億美元的超級計算機,這個超級計算機所產生的影響和曼哈頓計劃、登月計劃一樣。很多人都很關心這個計算集群的投入產出會是什麽?它的產出結果其實就是無限的智力和能力提升或者是更高級的生產力,隨之也會對全球地緣政治產生非常大的影響。鴉片戰爭的本質就是工業社會從高維度碾壓低維度的農業社會,新舊世紀交替時的海灣戰爭也是信息化社會碾壓了傳統的工業化部隊。AGI 今天就到了這樣一個新的技術革命轉折點,它的影響幅度可能會超過以往的所有技術革命。AI 的進步速度很快,過去一年中 AI 的進步速度超過了人類曆史幾千年的發展。今天很多人也在討論 scaling law 會不會持續,模型會不會繼續變大?我們的觀點是目前 scaling law 還沒有失效,邊際收益也沒有遞減,所以模型在未來幾年中會繼續變大。今天最大的模型有 1-2 萬億參數,未來可能會走向百萬億參數,和人腦神經元相當。模型變大的同時,大家還低估了一個趨勢,那就是模型變小的速度也很快,OpenAI 剛發布了 GPT-4o mini 模型,單位參數小模型的知識密度也在快速提升,可能在一年內大家就能看到手機和電腦端側可以跑一個 GPT-4 能力水平的模型。端側小模型的趨勢也引出了我們的另一個關鍵判斷:除了英偉達代表的數據中心基建,Apple 等手機廠商和手機產業鏈代表的消費端側基建也是大基建的一大主題,和數據中心一樣重要。無論是數據中心基建,還是 Apple 手機端側基建,幾乎 100% 的高端芯片都產自台積電,因此台積電將會連續受益於這兩波基建浪潮。判斷 4 :AGI 基建是工程問題,通過資金投入和時間可以解決AGI 基建是工程問題,人工智能行業沒有解決的問題比解決的問題還要多,因為科學問題往往不是能夠立刻看清的,但 AGI 大基建是可以通過投入資金和時間來解決的。拿 GPT-4 的訓練來舉例。現在訓練出一個 GPT-4 最少也要 8000 張 H100 的有效算力,接近萬卡集群。萬卡集群是一個標配,如果自己買卡,每張 H100 的售價接近 3 萬美金,再加上周邊設備,僅硬件成本就需要 3 億美金。當然也可以租,如果租 H100 一年,需要差不多 1.5 億美金。為什麽萬卡集群工程的難度很大?這個和 GPU 的特點有關,傳統 CPU 是串行計算的,一個 CPU 壞了是不會影響到其他 CPU 做任務的。但 GPU 是並行計算的,1 萬張卡裏 1 張壞了或者 1 張的處理速度慢了,剩餘卡的任務進度也會慢下來,這就需要我們快速定位出故障的卡,這件事很難,而且萬卡集群基本上每天都會壞,每天都有故障率,因為本身 GPU 的故障率就很高。第二就是能源上的問題,每張 H100 的功耗是很高的,差不多要 1000 瓦。假設 GPT-4 用 8000 張 H100 訓練 100 天,對應就需要 2600 萬度電,這意味著三峽一天的發電量,或上海一天用電量的 5%。此外,模型訓練對電力的波峰波穀需求很明顯,有些任務很耗算力自然對電力消耗也很大,如果規劃不好可能會影響到居民用電。之前大家都沒預料到 AI 會發展這麽快,而重新建造一個電站往往要 2 年左右的建設周期,而且很多地區都有能源環保政策,因此修建電站會比我們想象中還要慢。我們一直在談論 1 萬張卡的用電量,10 萬 H100 集群一年的用電量大概是 12.4 億度,這大概是整個上海一年用電量的 0.8-1%。現在 AGI 數據中心主要是在美國本土,美國一年的總用電量在過去 20 年裏一直都比較穩定,大概是 4 萬億度,其中數據中心可能要用 2000 億度,也就是 5% 左右。但媒體預測,到 2028 年,美國本土的數據中心用電量會增至 6700 億度電,也就是在 5 年內漲 3 倍,從 5% 漲到 16%,這對製造和基建能力明顯退化的美國來說,其實是一個很大的挑戰。判斷5:未來 2-3 年能看到 Coding 領域 AGI拾象團隊經常說的一點還有 “AGI 不是一蹴而就的”,它的關鍵詞是 “漸進式解鎖”,就像前麵提到的,畫一條登山路線圖,模型能力每增長一點,就會解鎖一些新場景,產生一些新應用。目前來看,搜索是 LLM 初期最大的 Killer App。GPT-4 出來已經一年多了,但 AI 應用還沒有大爆發,從結果上來看是比較無聊的。但如果拋開 ChatGPT 這種大模型公司的應用,矽穀主流 VC 投資的、已經跑出來且發展到一定估值的,我可能隻能想到 Perplexity 一家。但如果拉開時間維度,我們認為未來 2-3 年有機會看到 Coding 領域的 AGI ,也就是一個做各種任務都非常不錯的程序員。因為軟件的邏輯更清楚,更容易有從 0 到 1 的反饋。有一個很好的比喻是:過去互聯網是搜索網頁的信息,叫搜索引擎,但未來 coding 可能叫任務引擎,用來解決有經濟價值的任務。目前我們用的軟件是由產品經理定義出頭部需求後,再由一個很大的開發團隊去開發執行。和拍電影一樣,需要導演先發出一個定義,再由整個團隊合作來拍。未來,長尾的需求或個性化需求是不需要團隊負責開發的,AI 組合各種 Agent 就可以解決。這個場景在曆史上已經多次重複實現過了,比如拍電影成本很高,但在短視頻爆發後,每個人都可以拍自己的電影。在今年年初發布的總結中,我們其實也提出到了 “大模型是一個新時代的摩爾定律”,其中分為兩條主線:第一條主線就是智能能力的進化,每 1-2 年模型水平就會提升一代;第二條主線是模型的成本會非常快地下降,每 18 個月就會下降 10 倍以上。現在很多開發者在創業的時候,都是用的最好的模型來做 PMF,但很快他們就可以用更便宜的模型來降低成本了,再發展一到兩代就很有可能會帶來更多 AGI 應用的爆發。當一個大的科技革命到來的時候,長期的投資回報是非常可觀的:iPhone 在 2008 年上市,Apple 當年的股價從 8 美元漲到了 10 美元,16 年過去後,Apple 現在的股價在 230~240 美元之間。16 年的時間裏,Apple 公司的股價漲了 15~16 倍。考慮到我們現在其實還處於 AI 革命的早期,所以現在是參與 AI 投資最好的時間。最近這幾周,硬件板塊出現過一些回調,也因此市場上開始討論接下來要如何布局 AI 投資的問題。對於這次回調背後的原因,我們整體上認為有兩方麵:• 在邏輯趨勢上,市場上有相當一部分觀點開始擔心 AI 的貨幣化;• 另一個很重要的點就是美國進入了一個偏風格輪動的階段。從基本麵的趨勢角度來講,我們認為其實並沒有特別大的變化。以 Meta 為例,在它基於 GPU 算法的廣告模型中,客戶每投入 1 美元,就可以創造 3-4 美元的收入,所以這個 GPU 的推薦廣告算法帶來的收入端增益其實是非常不錯的。我們之前也測算過微軟的 GPU 回本周期,大概是 3 年左右,也就是說每年大概能帶來 30% 現金層麵回報,從大的互聯網公司角度來說,這個投資回報率還算不錯,這個是無需質疑的,這也是為什麽這些公司今年都在不斷地上調資本支出的指引。在我們和 ServiceNow 以及其他公司的調研和交流中,我們也能很深切地體會到 AI 投入的 ROI 是非常高的。但從企業用戶角度,他們采用 LLM 的瓶頸其實並不是因為 ROI 的問題,而是用模型時需要確保在基礎設施、網絡、客戶隱私以及準確度上符合要求,企業用戶采用 LLM 很多時候普遍會考慮三個問題:其實現實角度,美國很多企業已經開始在內部部署 LLM 了,比如內部的 IT 答疑係統,如果是一個大型企業,假如有一個 IT 問題,在過去處理這個問題可能需要 5 個工程師把所有的問題問清楚後,再去找到係統的問題並進行修複,但用了 LLM 之後就完全替代了這 5 個工程師的人力。隨著下半年模型的能力會進一步發展,尤其是在邏輯推理能力、多模態能力、agent 能力上都會有進一步的發展。模型能力的進步也會解鎖更多的應用場景,我們相信企業也在不斷地嚐試各種場景,預計明年會看到更多應用端的出現。所以從基本麵角度來講,我們認為 AI 還是在發展的,我們也對明後年非常期待。短期來講,可能會出現板塊輪動的現象,包括美國大選等外部事件帶來的不確定因素等都會成為波動的原因,所以,我們的觀點是基本麵還是在發展,短期的這些因素更多的還是市場因素,是非基本麵的因素。在二級投資中,拾象選擇將精力集中在 5 條投資主線中,分別是算力、雲基礎設施、端側、互聯與軟件。結合我們的調研與研究,我們也會根據 AI 領域的進展來動態地調整我們在這五個方麵的布局。當前我們認為算力與雲基礎設施仍然是製約 AI 大發展的瓶頸,算力的需求仍然非常強勁,因此我們在算力與雲基礎設施上的布局相對更重一些。作為對比,AI 對軟件的影響不是非常明確,因此我們暫時對軟件的布局會相對輕一些。但預計在未來 2 年,我們能夠看到端側的應用與 AI 軟件側的進步都會越發明顯,因此我們可能會在未來兩年中進一步增加端側和軟件側的布局。投資主線 1:世界需要更多算力,廉價的算力永遠是稀缺品 前麵我們提到,目前全球平均有兩億人每人每天會使用一分鍾 GPU time,如果沿著這個思路去想,假設未來有 20 億人每人每天使用一小時 GPU time,那對算力的需求可能會增長 100 倍甚至 1000 倍。有一類主流觀點認為:算力在等待模型進步,市場的發展需要看到應用端的爆發,但我們認為這個觀點本末倒置了,在拾象團隊的視角中,模型一直在等待更廉價的算力,廉價的算力永遠是稀缺品。算力成本越低,經濟可行的算法會越多。以 GPT 的發展為例,GPT-5 需要 5 萬張 H100 集群訓練 6 個月,所以當前每一代模型如果要訓練成功,需要 6-9 個月,模型的迭代速度非常慢,製約模型發展的最主要瓶頸其實就是算力。但如果我們用下一代英偉達 B100 的卡去訓練 GPT-5,它的訓練時間可能會大幅縮短,隻需要 1-2 個月,那模型的迭代速度就可以大幅度提升。中長期看,我們看到有 3 個方麵的因素會進一步拉動算力的需求。1. 我們仍然處於 scaling law 的早期,模型的能力還是會隨著模型參數的增加而提高。OpenAI、微軟與 Anthropic 等頭部公司的高層曾在訪談中多次提到:scaling law 遠遠沒有觸及邊界,他們的產品仍在你追我趕的過程中。算力軍備競賽仍然在如火如荼地進行。2. 多模態模型,尤其是上周 GPT-4o mini 的發布,會進一步解鎖更多應用場景,例如隨身攜帶攝像頭,提供實時的 AI 助手功能等。多模態模型也可以進一步地替代人工成本較高的職位,例如醫生出診、律師谘詢、銷售等,這些職位以後都將有可能被 AI 所取代,這樣 AI 所帶來的經濟價值也會越來越高。3. 我們可以有一些大膽的假設,當前每年全球國防開支約為 24000 億美元,如果大模型能夠進一步解鎖圖像與視頻領域的新能力,假設每年有 3~5% 的國防開支用於 AI 或信息相關投資,就有 1000 億美元的邊際增量。英偉達仍是我們目前在算力這個投資邏輯中最為看重的一支股票,雖然它的股價已經漲了很多,但我們認為估值遠遠沒有飽和,目前英偉達的市值已經達到了 3 萬億美元,但我們對英偉達的心理價位至少是 5 萬億美元左右。市場上會有觀點認為,因為競品的快速追趕,英偉達護城河與此同時也在不斷變窄,但拾象的判斷是:推理對係統要求更高,英偉達係統的護城河其實是越來越寬的,這是英偉達實現 5 萬億的前提。• 從市場規模來講,我們認為整個加速芯片市場會進一步擴大,有機會達到 3000-4000 億美元的規模;• 英偉達擁有從芯片、互聯到軟件三位一體的競爭優勢。在短期內,我們看不到英偉達有任何的競爭對手;• 英偉達有非常完善的產品矩陣。英偉達在今年的展覽會上明確宣布了它在 2024 年下半年、2025 年以及 2026 年的產品路線圖。我們能看到它正在從賣芯片逐漸轉向發展成熟的係統和軟件,不僅路線圖明確,產品力也在逐年提高。在此前麵看多英偉達的基礎上,關於“為什麽英偉達至少可以達到 5 萬億的市值”,我們的邏輯是:未來 5 年之後,數據中心的基礎設施將達到 2 萬億美元的市場規模,這裏的 2 萬億指的是整個 IT 基礎設施的規模,即同時涵蓋了 CPU 和 GPU,現在存量的數據中心規模大概在 1 萬多億,每年有大概 2000-3000 億的增量,5 年後就會達到 2 萬億美元左右的規模。在數據中心規模達到 2 萬億後,就會出現:現在硬件的使用周期一般是七年左右,如果以 7 年作為一個替換周期,那實際上每年的替換率有 15%。正常情況下,每年的增長大概是高單位數,也就是 7-8% 左右,所以 15%的替換周期加上高單位數的自然增長,那每年就會有近 20% 的替換加增長的一個市場空間,隨之也會帶來一個 4000 億的 Capex 的空間。過去的每個時代,最頭部的企業都占到了 70-80% 的價值量,並且今天來看英偉達的護城河非常寬、也很值得市場的信任,所以我們認為英偉達仍舊可以占到 75% 的價值量,也就是說,它可以達到 3000 億美元的收入體量。目前英偉達的淨利潤率是 45-46%,隨著規模擴大,它的經營杠杆會進一步體現,所以我們認為它有機會達到 50% 的利潤率,也就是 1500 億的數據中心盈利。數據中心之外,再疊加上比如自動駕駛,gaming,以及它在幫很多企業開發的數據中心業務等等,我們認為英偉達肯定是可以達到 5 萬億的。值得強調下英偉達在自動駕駛上的布局,英偉達可能是除了 Tesla 之外在自動駕駛上投入第二大的公司,我們認為這一點其實是被市場忽略了。雲廠商能最直接受益於大模型進步與應用。我們已經能看到 AI 對雲廠商的收入拉動在逐步增加:過去四個季度中,AI 對微軟的邊際貢獻分別是 1%、3%、6% 和 7%,在很多 CIO 調研中也能明顯感受到全球頭部企業在雲上的投資意願是在不斷增加的,2025、2026 年在雲上的投資意願都顯著高於 2024 年,也因此,我們對幾大雲廠商在未來幾年的收入都是非常樂觀的。Amazon 是四家雲廠商中我們目前最喜歡的一家,並且我們認為市場其實低估甚至忽略了 AWS 受益於 GenAI 的程度,也因此我們看好 AWS 的長期增長潛力。拾象團隊對於 Amazon 的投資邏輯,主要基於以下兩點。• 首先,如前麵所提到的,AWS 作為雲廠商也是 LLM 的重要分發渠道,其中,AWS 和 Anthropic 的合作雖然不能 100% 看作 Azure 和 OpenAI,但也是相當深度的合作。Anthropic 最新發布的 Claude 3.5 係列模型的表現數據很驚豔,從市場反饋來看,Claude Sonnet 3.5 是一個和 OpenAI GPT-4o 不相伯仲的一個模型;• 第二,因為 Amazon 收入中很重要的一部分來源於零售以及廣告,而今年和明年零售和廣告業務會進入一個快速複蘇和增長的環節,總結來說,無論是在近期零售與廣告的複蘇,還是中長期在大模型的布局與雲服務上,我們都非常看好亞馬遜。所以,現在這四朵雲中,我們的首選是亞馬遜。更進一步,我們可以把 AWS 和 Azure 進行對比,來感受為什麽 AWS 的實際表現可能比市場認知中要更強。和 AWS 相比,微軟更擅長為大企業和政府服務,它和 OpenAI 綁定更深。但是我們也能看到它和 OpenAI 之間彼此有一定提防的,比如 OpenAI 其實並沒有把某些交互的 API 權限開放給微軟 Azure,但 AWS 對中小企業更友好,尤其對 start-up 更友好。從模型能力的差異來看,兩者可以說是齊頭並進,在某種程度上,雖然 Anthropic 的每一代模型雖然可能比 OpenAI 稍微晚幾個月,但其實它的效果在很多方麵,尤其是在長文本的閱讀能力、作圖能力等上都略高於 OpenAI,所以我們認為亞馬遜和微軟在能力上並沒有絕對的差異。甚至和 AWS 相比,微軟更封閉一點,因為它的目標是通過 AI 來推動其他產品的銷售,比如推動 Office365 和 Windows 的銷售,所以微軟的主觀性更強,有更強的主觀控製的 tendency。而 Amazon 就更開放一些,如果我們相信 AI 會產生一個新的獨角獸或者產生一個新的顛覆式的公司,那麽這個公司很有可能最早是 AWS 的客戶。也因為市場對微軟的共識太強了,這就導致它的 PE 的 multiple 很高,可能有 35 倍左右。但因為對 Amazon 的預期不太高,甚至覺得它會因為 AI 受損,所以 multiple 並不高,這也是一個非常大的區別。To C 端,今年是 AI phone 的元年。2008 年,我們看到的是 smart phone 開始取代過去的 feature phone,隨著 Apple 在今年的 WWDC 上推出的 Apple Intelligence,我們認為今年進入了 AI phone 的時代。在企業端,在很多 survey 中都能看到,企業高管們對端側的 AI 都是非常看重的,也都非常願意進一步投資端側的 AI 應用。在端側的布局上,我們目前的首選就是 Apple,我們認為 Apple 最關鍵的價值在於,因為它在軟硬件上布局足夠全麵,所以能夠把控整個流量的入口,Apple 是 AI 時代 ToC 端當之無愧的最大受益者。先從入口角度,除了 OpenAI 的 GPT 係列模型外,Apple 還在和很多家 LLM 公司接觸,它選擇的是一個所謂的熱插拔的策略,也有報道說它在和 Google 談新的合作,在 WWDC 上,我們也能看到 Apple 很明確地表示要把流量入口抓在自己手裏。AI Chatbot 對於 Apple 來說一定是一個相對比較大的應用,但是在係統級的層麵上,它一定、並且也會牢牢地把所有的流量入口、分發權以及 APP 的調用權控製在了自己的手裏。這也是我們為什麽非常喜歡 Apple 的原因:在 AI 時代,它仍然是最能占據流量入口和心智的卡位。我們對這次 WWDC 最大的感受也是:Apple 非常有機地把 AI 結合到了 iOS 係統中,我們甚至可以說,一方麵是 Apple 深度地擁抱 AI,另一方麵 AI 也在某種程度上在重構 Apple。可以想象一下,未來 AI 時代的手機入口可能不再需要點擊屏幕上的一個個 APP,Siri 變成了一個全能的 Agent,因為它的權限很大,可以把各種應用都調用起來、完成複雜任務和交互。舉個例子,我們可以讓 Siri 幫忙查詢一班明天北京到上海的飛機,根據我目前的日曆行程,也許一個上午 10 點從北京機場飛到浦東機場的機票會更合適,目前可能我們還需要到幾個 APP 中自己搜、比價,但在可預見的未來裏,這件事可能會變成通過我們和手機的交互,讓手機幫我們實現這個操作。如果看 Apple 在 LLM 模塊化上的思考,即在雲端以三個不同大小的模型來實現複雜程度不同的任務上,也能感受到 Apple 接下來的潛力。此外,我們認為 iCloud 作為 Apple 的服務端,它的增長潛力遠遠被市場低估了。Apple 目前的手機銷量慢慢進入了 2 億 的相對平穩期,LLM 首先會改善這個情況,但更重要的是隨之而來的隱私剛需也會帶動 iCloud 這個“個人雲”的收入提升。Apple 服務端的滲透率目前隻有 10%,如果隨著未來 AI 功能的加入,用戶訂閱 iCloud 的比例增長,那麽每一個點的滲透率的提升都會給 Apple 貢獻 3-4 個點的 EPS (Earnings Per Share)增速。所以我們認為 Apple 在未來的 3-4 年將會進入一個超級換機周期,同時它的服務端也將會有很大的收入增長的可預見性,所以在端側,我們現在的首選是 Apple。下一代大模型的訓練是以 10 萬張卡互聯作為基礎的,當下按照訓練 GPT-5 的需求來看,我們目前能夠利用的集群規模在 3-4 萬張卡的水平,而下一代模型的入場門檻就要到十萬張卡,整個規模都要進一步地大幅度拓展。而且 scaling law 仍在快速推進中,對模型的參數以及數據的帶寬都會有進一步的要求。此外,隨著 LLM 的進一步普及,我們也會創造出更多的數據,比如說今年的 Sora 模型會不斷加快視頻的產生速度,可以想象,未來幾年視頻的數據會爆炸式地增長,這就會對數據的存儲、互聯、交互都會提出更高的新要求。在互聯與存儲的環節,我們現在的首選是博通。博通可以說是在互聯中最具有戰略意義的公司。之所以看重互聯環節是因為它屬於數據中心中除了計算之外的,第二大支出項目。以 Meta 為例,它的 2.4 萬張卡集群中,複用率占了 70% ,互聯占了 25% 左右,所以互聯在整個數據中心基建中具有非常重要的作用。我們喜歡博通的另一個原因是:博通是定製化芯片的最主要、最大的生產商。博通與 Google 已經合作了六代定製芯片 TPU,今年將開始研發第七代 TPU。我們可以看到,像 Meta 和字節也都是到博通做的定製化芯片。所以,除了英偉達,對很多大型互聯網公司來說,必不可少的另外一家硬件公司就是博通。投資主線 5:按席位的 SaaS 模式轉變為按計算量的Token-as-a-Service 模式在一開始的投資判斷中,我們也提到 LLM 會革新商業模型,我們認為在 SaaS 領域這個趨勢是一定會發生的,過去 Seats-based 的軟件模式有可能會轉變成 Token-as-a-Service 的模式。過去軟件是按照人頭收費的,因為每一個生產力的單元都是員工,所以軟件最主要的增長方式是服務更多的員工,但是進入 AI 時代後,業務或者生產力的增長點可能不在員工數,而是變成 LLM 數,也就是說未來企業的生產力將不再由員工數來決定,而是由企業有多少個 LLM,LLM 能產生多少個 token、它的計算量有多大。這些因素會成為未來企業盈利增長最主要的模式。所以我們現在思考的一個問題就是:整個軟件的模式會不會出現一個翻天覆地的變化?按照人頭、席位數的模式會不會被以計算量為服務模式的軟件公司所取代?最近有一篇關於 Salesforce 的研究中寫到, AI 會降低 Salesforce 10% 的席位數,我們認為這則消息證實了我們的一個猜想:未來的軟件模式將由席位數逐漸轉變成 token 數,不過可能有更貴的 token,也可能有更便宜的 token,比如說模型好的公司可能 token 的價格就會更高。我們會沿著這個思路去做相應的投資布局。Top Pick: ServiceNow(NOW)當前我們在軟件方麵最喜歡的公司是 ServiceNow,我們認為 ServiceNow 目前是在海外 SaaS 公司中最明確的 AI 收益標的。目前來說,幫助企業部署 AI、部署 LLM 的公司非常少,而 ServiceNow 是我們目前看到的能幫助企業部署 AI 的有限的幾個公司中最好的一家。ServiceNow 主要業務是為企業 IT 自動化提供各種服務,經過這麽多年的發展已經成為很多大型公司的長期合作夥伴,對很多公司內部的 IT 係統和數據係統都非常熟悉,所以在 AI 時代,如果很多公司想部署 LLM ,首先找到的合作夥伴就是 ServiceNow。因此,從去年開始 ServiceNow 就在很多場合提到它的訂單非常強勁,無論是基於 LLM 能力的 Now Assist 服務,還是提供的解決企業數據、企業內搜索等方麵的服務,都受到了很多企業客戶的好評,相關需求也很多。在 LLM 的實施過程中,很重要的一點就是企業內部搜索,ServiceNow 在這方麵做得是最好的,比如很多時候大家詬病 LLM 在應用過程中的一點是模型會在應用過程中產生一些幻覺,幻覺主要有兩個解決方案:RAG,以及企業內的圖譜搜索,ServiceNow 在這兩方麵都推出了相應的服務,所以 ServiceNow 是企業在部署 LLM 時很重要的一個合作夥伴。Now Assist 是 ServiceNow 過去 20 年裏所有產品中增長最快的一個,這件事其實表明了兩點:第一,企業部署 LLM 的需求非常強勁。第二,企業對 ServiceNow 服務是認可且非常信任的。因此,我們認為,無論是訂單、現金流、所處的位置,還是橫向拓展的能力,ServiceNow 現在都屬於 AI 時代第一批最受 AI 收益的標的,也是我們目前在軟件領域最喜歡的一個標的。**本文僅作為科普分享及學習資料,不構成任何投資建議或金融產品推薦,並且及不應被視為邀約、招攬、邀請、建議買賣任何投資產品或投資決策之依據,文中所涉及的分析、觀點及結論均為作者基於公開信息的研究和主觀判斷,不代表任何投資機構或金融機構的官方立場,亦不應被詮釋為專業意見。投資有風險,入市需謹慎。**