類似chatgpt 啊,不錯啊,但是我下麵寫了沒有chatgpt 和nvda就沒有deepseek

回答: 有哪個具體問題DeepSeek回答得不好?玻璃坊2025-01-25 06:22:25

中國善於卷啊,所以現在逼著chatgpt 天天發布新玩意啊,好事。到處都需要NVDA的算力,現在才是冰川一角啊,到AGI/ASI需要幾萬倍幾十萬倍或幾億倍現有的算力啊

所有跟帖: 

OpenAI 已經分開兩個部門 -越王劍- 給 越王劍 發送悄悄話 越王劍 的博客首頁 (286 bytes) () 01/25/2025 postreply 06:32:48

肯定是Altman啊,哈哈 -BrightLine- 給 BrightLine 發送悄悄話 BrightLine 的博客首頁 (0 bytes) () 01/25/2025 postreply 06:34:40

肯定啊。風投就這麽多錢,Altman搞到的多了,Musk能分的就少了,等於搶了Musk一把。這Musk怎麽能忍? -Wei_PDX- 給 Wei_PDX 發送悄悄話 (0 bytes) () 01/25/2025 postreply 09:48:34

也就是說DEEPSEEK不差 -玻璃坊- 給 玻璃坊 發送悄悄話 玻璃坊 的博客首頁 (52 bytes) () 01/25/2025 postreply 07:01:56

但是明顯的數據的訓練量不夠,沒有現在的數據 -BrightLine- 給 BrightLine 發送悄悄話 BrightLine 的博客首頁 (0 bytes) () 01/25/2025 postreply 07:09:29

我前一段分析過對deepseek的看法, -cnrhm2017- 給 cnrhm2017 發送悄悄話 cnrhm2017 的博客首頁 (250 bytes) () 01/25/2025 postreply 07:39:04

這不就是fine tuning嗎,OpenAi的模型天天在搞的,誇口的分數大都來自這裏 -bulubulu- 給 bulubulu 發送悄悄話 (0 bytes) () 01/25/2025 postreply 13:46:02

請您先登陸,再發跟帖!