一分鍾讀懂deepseek

1. 使用一種獎懲機製訓練模型。所以更有效。

2. 目前邏輯,code能力強,語言能力稍差

3. Performance 強,$2 per M token, 國外大模型$60 per M token.

4. Free. 開源。

所有跟帖: 

你已經總結研究了?我還沒來得及讀他們的chnicalpaper,隻是試了一下效果,非常棒,覺得付$20 GPT冤枉 -青裁- 給 青裁 發送悄悄話 (0 bytes) () 01/25/2025 postreply 07:49:03

ChatGPT也有免費版的。你如果在乎那$20,也可以用免費版的ChatGPT。 -大觀園的賈探春- 給 大觀園的賈探春 發送悄悄話 大觀園的賈探春 的博客首頁 (0 bytes) () 01/25/2025 postreply 07:52:40

這些模型都在不斷優化中。將來就像你去看兩個醫生,診斷結果相似,一個收一毛錢,一個收100刀,你用哪個? -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 07:57:47

事關健康,即使$100那位隻比免費的就好那麽一點點,也要用$100的。企業選擇AI也是一樣。 -大觀園的賈探春- 給 大觀園的賈探春 發送悄悄話 大觀園的賈探春 的博客首頁 (0 bytes) () 01/25/2025 postreply 08:01:51

這個可能由不得你,保險公司決定。現在很多保險就不cover brand name,隻報銷generic藥,雖然前者更好 -Amita- 給 Amita 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:03:56

昨天DEI主題大研討,你卻缺了席 -oryzivore- 給 oryzivore 發送悄悄話 (0 bytes) () 01/25/2025 postreply 07:49:26

忙著掙錢養家。哈哈。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:02:16

【使用一種獎懲機製訓練模型】,所有的模型訓練都用的吧?要不然會overfit -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 07:51:42

這個就比較technical 了。網上有詳細解釋的。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:01:35

我的意思是,大家都用獎懲函數(Lasso/Ridge),你列舉的第一條並不是DeepSeek獨特的機製啊? -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:05:36

找到/發明獨特的獎懲函數才是牛人 -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:11:17

梁文頌的公司叫做量化同方。而且,deep seek一旦開始 -大宋- 給 大宋 發送悄悄話 大宋 的博客首頁 (253 bytes) () 01/25/2025 postreply 08:19:45

有個預感 -大宋- 給 大宋 發送悄悄話 大宋 的博客首頁 (264 bytes) () 01/25/2025 postreply 08:03:16

這才是正確的方向 -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:04:12

應該是找對了訓練模型的更有效方法。當年Google 打敗Yahoo肯定不是因為更有錢。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:11:19

不是都開源了嗎?算法是啥你們牛人們不是看看就懂? -專業潛水媽- 給 專業潛水媽 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:16:47

我要能一看就懂,還有空在這聊天嗎?哈哈。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:20:48

請您先登陸,再發跟帖!