英偉達會長期100以下

本帖於 2025-02-23 11:37:43 時間, 由普通用戶 大宋 編輯

大規模的預訓練基本結束。

deep  seek這個星期發表的第二篇論文,基本一錘定音了,reasonning 階段的人工智能,也就是deep seek用的NSA模型,比全attention模型反應速度快十倍,效率高10倍,成本算力要低10倍,基本把七大的語言大模型打入死牢。

 

AI 肯定需要算力。但是不需要那麽多了。這就是為什麽英偉達可以長期維持100,而不是30,50塊的原因。100以上肯定是不現實的。

 

一龍家剛發布的grok3 使用大約20,30萬塊高性能的GPU,但實際效果與用幾千塊低性能GPU 的deep seek沒有很大區別,再次證明,堆算力的語言大模型基本走到頭了。

 

七大的另一個Google可能也會腰斬。現在搜索人們開始習慣使用 GPT, deep seek ,grok3等,用Google越來越少。

請您先登陸,再發跟帖!