評論: Nvidia:DeepSeek日後會需要更多AI晶片

隻有登錄用戶才能發表評論,點擊此處登錄    返回新聞帖
xiaoxiao雨 發表評論於 2025-01-28 10:40:42
My impression no company here cut corner.
灣區範兒 發表評論於 2025-01-28 10:05:51
別忘了中國十多年前研製成了最先進的漢芯芯片,結果呢?
藍天大地 發表評論於 2025-01-28 08:45:50
這是顯而易見的。

DS隻不過是個Distill流程而已。我對軟件編程一竅不通,但卻對3D建模感興趣。

最近在做一個地球模型玩,於是我花了很大的時間和資源(create a mesh,UV mapping,material,shading,geometry modification,etc.)把這個地球做出來了。

但我的牌友跟我說,這個地球上的澳洲地區森林覆蓋麵不夠廣,要再加點綠色。他就把我的模型拿過去,用shading nodes加了點綠色,使我的這個地球更漂亮些了。這個地球就是ChatGpt,這個朋友做的就是DS。

但是,如果我不把這個地球模型給他,他就不能讓這個地球更漂亮。所以,DS根本不算什麽。
所以說,DS對NVDIA的芯片根本沒有影響,華爾街那幫人不懂技術,過一陣子NVIDIA的股票就會漲回來。因為,pre-training & post-training,任然需要很多的芯片。

更進一步說,類似DS的東西有可能反而會更加推進對NVIDIA芯片的需求。DS最大的貢獻在於細分化(segmentation),這就給跟多專業的細分化公司提供了機會。它們單個公司所需要的芯片也許不多,但是如果有很多各類做細分化為專長的公司出現,那麽累計起來對NVIDIA芯片的需求還是會越來越大。

所以,我繼續看好NVIDIA,ChatGpt這類公司的前途!
cyte 發表評論於 2025-01-28 08:39:12
jw2009 發表評論於 2025-01-28 06:27:50據說DS使用了5萬張H100顯卡,但是他們不能承認,因為怕招致美國加緊封鎖。

這種可能性不大,太容易調查了!CIA不吃幹飯的。
大河邊的人 發表評論於 2025-01-28 07:17:20
Ai 這孩子才3,4歲,就不想多給一點功能強大的芯片,讓它成年辦更大的事嗎?
jw2009 發表評論於 2025-01-28 06:27:50
據說DS使用了5萬張H100顯卡,但是他們不能承認,因為怕招致美國加緊封鎖。
偶偶地來一發 發表評論於 2025-01-28 05:44:41
日後二字用的巧妙,就是說現在賺不到錢了。賺不到錢就拉不到資本,資本沒有耐心,不可能等你的。

卡中國脖子這事,再找一個賽道吧,芯片方麵不行了。原因是低端被打成白菜價,因成本問題賺不到錢去投資高端,後繼乏力,很快就被追上。
歪理壹籮筐 發表評論於 2025-01-28 05:04:26
既然deep seek以算法設計取勝,開放了設計方法和程式的新技術,會被具有更強算力的美國AI大家吸收,仍然具備更強的競爭力呀!

惟有英偉暫時性市場需求下降而已。
ca_lowhand 發表評論於 2025-01-28 04:49:00
deepseek 都可以在華為的爛芯片上跑的不錯,還要用女大死貴的高檔芯片幹什麽
gameon 發表評論於 2025-01-28 03:26:52
說的沒錯。但因為現在人家DS闖出一個用算法解決算力才能解決的問題新思路,以後各AI公司就不一定會用昂貴的英偉達,而可能用偉達英,達偉英出產的低配芯片,導致英偉達落下神壇是有可能的。
荒野獵人 發表評論於 2025-01-28 03:18:00
隻要對芯片進行出口管製,中美ai之爭,獲勝的肯定是美方!雖然deepseek表現優異,但是由於受到中國政府的審查,它的缺點也很明顯!
荒野獵人 發表評論於 2025-01-28 01:17:00
請問deepseek用的是什麽芯片?deepseek:截至我的知識更新日期(2024年7月),我無法提供關於DeepSeek使用的具體芯片信息。如果你需要了解DeepSeek的技術細節或硬件配置,建議訪問其官方網站或聯係其技術支持團隊以獲取最新信息。你可以訪問 [***deepseek***](***deepseek***) 了解更多。
荒野獵人 發表評論於 2025-01-28 01:12:00
DeepSeek利用較少且不夠先進的芯片訓練出了媲美ChatGPT的模型。DeepSeek在一份技術報告中稱,它使用超過2000個英偉達H800芯片集群來訓練其參數為6710億的V3模型,而Meta訓練參數量4050億的Llama 3,用了16384塊更強的H100顯卡,花了54天。Deepseek的訓練效率為Meta的11倍。DeepSeek表示,訓練其最新模型之一的成本為560萬美元(約合人民幣4100萬元)。相比之下,人工智能開發商Anthropic的首席執行官達裏奧·阿莫迪 (Dario Amodei )去年提到的建立一個模型的成本為1億至10億美元。CNBC曾發文稱:“DeepSeek-R1因其性能超越美國頂尖同類模型,且成本更低,算力消耗更少,引發了矽穀的恐慌。”但王話鋒一轉,談到了中國人工智能企業可能為人工智能模型配備的GPU數量。他稱,“中國的實驗室擁有的H100芯片比人們想象的要多得多。”他補充道, “據我了解,DeepSeek擁有大約五萬塊H100芯片。”王認為,因為違反了美國實施的出口管製,所以DeepSeek不能談論這些。英偉達的Hopper架構GPU如H100和H200,因其優秀的算力,出口受到美國政府的管製。拜登政府於2022年通過一項規定禁止英偉達向中國出售性能遠超其舊款GPU A100 的GPU係列,迫使英偉達開發了名為H800和A800的性能削減版芯片用以替代,但一年後的2023年10月,這兩款芯片也一並被禁止。目前,英偉達已在推廣其最新一代Blackwell架構的GPU,其出口依然受到限製。王將中美之間的人工智能競賽描述為一場“AI戰爭”,並補充道,“美國將需要大量的計算能力和基礎設施,我們需要釋放美國的能量以推動這場AI繁榮。”
maina 發表評論於 2025-01-28 00:18:41
短期來說在資金一定的不變的情況下,在芯片上的投資比例會下降,在尋找更高效模型上的資比例會增加。長期來說,AI的突飛猛進會吸引更多的資金進入這個行業,包括硬件和軟件。
novtim2 發表評論於 2025-01-28 00:11:29
DeepSeek用事實證明通過提高模型的設計,可以把計算量指數級的降低。可以用百分之一的算力達到同樣效果。關鍵是這個趨勢如果持續,對GPU算力需求就會大幅下降。至少可以說硬件不再是AI的瓶頸,而好的模型才是瓶頸。
TitaniumAtlas 發表評論於 2025-01-27 23:43:00
大實話,但短期內需求還是會減緩的,長期來看門檻降低市場隻會更大
競選 發表評論於 2025-01-27 23:12:37
中國人很聰明,完全沒必要出國留學,國外的教授真的很蠢,向他們學不到什麽東西。
頁次:1/1 每頁50條記錄, 本頁顯示117, 共17  分頁:  [1]