NVDA改進一下搞類似的不難。AI難的是模型的生成,而不是生成後模型的輸出。
GROQ 的芯片是串行結構,不擅長學習(Transformer學習是並行共發),隻是擅長用學成後的模型高速輸出。NVDA
所有跟帖:
• GROQ 芯片設計者就是GOOG的TPU設計者。如果TPU能勝過NVDA的H100,GOOG的GenAI不至於現在的樣子 -uptrend- ♂ (0 bytes) () 02/21/2024 postreply 08:20:11
• 訓練模型是後端運行,計劃好了可以用多個SERVER一起訓,不一定非要好的GPU,模型輸出在前端,速度要快,因為人在等結果 -testmobile- ♀ (0 bytes) () 02/21/2024 postreply 08:24:41
• 那是老的ML的做法。Transformer是pre-train(模型自學生成以後用訓練微調)。學習的時候需要大規模並行。 -uptrend- ♂ (0 bytes) () 02/21/2024 postreply 08:27:21
• Pre-trained Model是一直需要的,可以Freezing a layer, 不可能完全一邊學習一邊輸出的, -testmobile- ♀ (0 bytes) () 02/21/2024 postreply 08:32:06
• 實事擺在那裏。GROQ的AI隻是輸出快,智能不夠的AI有用嗎?就像挑戰iPhone的手機一大堆,但芯片低能,沒用。 -uptrend- ♂ (0 bytes) () 02/21/2024 postreply 08:36:29
• 前端和後端是兩種架構,後端的複雜邏輯很難放到GPU裏,GPU是處理簡單的並發,microservices是後端的大方向, -testmobile- ♀ (328 bytes) () 02/21/2024 postreply 08:45:15
• NVDA 的新架構, 在一個巨大的Superchip上同時提供AI 和Kubernetes 服務。 -uptrend- ♂ (0 bytes) () 02/21/2024 postreply 11:08:54
• 不懂就少說點吧 -maniac63- ♂ (818 bytes) () 02/21/2024 postreply 09:29:44
• CNN並行(Federated)學習單一領域。 Transformer並行學習多個領域。 -uptrend- ♂ (0 bytes) () 02/21/2024 postreply 10:59:52