【使用一種獎懲機製訓練模型】,所有的模型訓練都用的吧?要不然會overfit

回答: 一分鍾讀懂deepseek靜靜的頓河022025-01-25 07:42:56

所有跟帖: 

這個就比較technical 了。網上有詳細解釋的。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:01:35

我的意思是,大家都用獎懲函數(Lasso/Ridge),你列舉的第一條並不是DeepSeek獨特的機製啊? -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:05:36

找到/發明獨特的獎懲函數才是牛人 -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:11:17

梁文頌的公司叫做量化同方。而且,deep seek一旦開始 -大宋- 給 大宋 發送悄悄話 大宋 的博客首頁 (253 bytes) () 01/25/2025 postreply 08:19:45

有個預感 -大宋- 給 大宋 發送悄悄話 大宋 的博客首頁 (264 bytes) () 01/25/2025 postreply 08:03:16

這才是正確的方向 -我是誰的誰- 給 我是誰的誰 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:04:12

應該是找對了訓練模型的更有效方法。當年Google 打敗Yahoo肯定不是因為更有錢。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:11:19

不是都開源了嗎?算法是啥你們牛人們不是看看就懂? -專業潛水媽- 給 專業潛水媽 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:16:47

我要能一看就懂,還有空在這聊天嗎?哈哈。 -靜靜的頓河02- 給 靜靜的頓河02 發送悄悄話 (0 bytes) () 01/25/2025 postreply 08:20:48

請您先登陸,再發跟帖!