評論: Deepseek效應帶崩芯片板塊,英偉達重挫近17%
隻有登錄用戶才能發表評論,
點擊此處
登錄
返回新聞帖
kdgirl
發表評論於 2025-01-28 05:46:00
還是用英偉達芯片算出來的
ypb001
發表評論於 2025-01-28 03:09:52
Nvidia股價腰斬後還是可以抄底的
銀河的天空
發表評論於 2025-01-28 01:57:32
AI界的拚多多,用完立馬知道高低立下。
theriver
發表評論於 2025-01-27 23:11:54
菲斯普的裏爾克 發表評論於 2025-01-27 21:44:00
華爾街的投資人既不懂中國也不懂技術,更不懂什麽叫彎道超車,已經有大拿很清楚的解釋整個deepseek的開發了,在其他公司的基礎上彎道超車,但是其他公司的訓練依然是需要硬件的,現在正式抄底的大好時機。
--------------
我個人認為最好還是先觀察幾天再做決定。現在的問題不是deepseek是否彎道超車,因為它的開源模式就決定了它既不可能也不尋求AI領先。它的問題和意義在於,指出了除了物理堆砌芯片外另一條提升算能的方法,就是用數學搭建更高效框架。打個比方,Openai現在蓋樓就像建金字塔,得一塊磚一塊磚去蓋,誰的磚多誰蓋得高。而deepseek就是那個發明了鋼筋混凝土的人,所以它可以隻用很少的磚就可以蓋很高。然後它把這個技術或者思維模式開源了。那麽全世界各種聰明腦袋都可以這麽蓋樓,都可以很快蓋大高樓(DeepSeek R1推理模型已經可以完全本地部署,我的16G GPU的筆記本電腦上就已經成功一鍵安裝了32B Q8量化精度的大模型,完全禁用網絡,本地運行)。如果這種蓋樓模式成功了,那麽倒黴的不是蓋樓的Openai,而是製造磚頭的英偉達,因為本來英偉達通過壟斷了磚就可以壟斷高樓,但是現在全世界高樓平地起;本來隻有英偉達生產的那種最重的磚頭才能蓋金字塔,但是現在是個磚頭就能蓋高樓。所以還是再等幾天再做判斷,反正已經都開源了,是騾子是馬很快就能知曉。
菲斯普的裏爾克
發表評論於 2025-01-27 21:44:00
華爾街的投資人既不懂中國也不懂技術,更不懂什麽叫彎道超車,已經有大拿很清楚的解釋整個deepseek的開發了,在其他公司的基礎上彎道超車,但是其他公司的訓練依然是需要硬件的,現在正式抄底的大好時機。
誰想找抽1
發表評論於 2025-01-27 21:14:41
再等幾個星期,事實曝光以後就塵埃落定,犯不著跟著華爾街的弱智瞎起哄。
pcboy888
發表評論於 2025-01-27 20:54:28
議會ban掉deepseek,問題解決
京城老炮1950
發表評論於 2025-01-27 19:52:51
問問deepseek,回答:用的deepseek自己開發的芯片,鑒定完畢。
荒野獵人
發表評論於 2025-01-27 19:51:00
近日,美國人工智能數據基礎公司Scale AI創始人兼首席執行官Alexandr Wang在接受CNBC采訪時稱,DeepSeek擁有大約五萬塊英偉達H100芯片,但因美國出口管製措施,他們不能公開談論。
荒野獵人
發表評論於 2025-01-27 19:50:00
DeepSeek於2024年12月26日(美國時間12月25日)當天發布了一款“震撼性的模型”——DeepSeek-V3,隨後又於1月20日推出了一款專注於推理的強大AI模型DeepSeek-R1,對標OpenAI的o1模型。DeepSeek利用較少且不夠先進的芯片訓練出了媲美ChatGPT的模型。DeepSeek在一份技術報告中稱,它使用超過2000個英偉達H800芯片集群來訓練其參數為6710億的V3模型,而Meta訓練參數量4050億的Llama 3,用了16384塊更強的H100顯卡,花了54天。Deepseek的訓練效率為Meta的11倍。
荒野獵人
發表評論於 2025-01-27 19:45:00
deepseek用的什麽芯片?
maina
發表評論於 2025-01-27 19:32:00
就是對硬件算力要求的比重相對降低了,不管這個結果出自哪個公司哪個國家,結果都是一樣的。有了低成本高速訓練模型的方法,對整個行業來說是件好事。
頁次:
1
/1
每頁
50
條記錄, 本頁顯示
1
到
12
, 共
12
分頁: [
1
]