【使用一種獎懲機製訓練模型】,所有的模型訓練都用的吧?要不然會overfit
所有跟帖:
• 這個就比較technical 了。網上有詳細解釋的。 -靜靜的頓河02- ♀ (0 bytes) () 01/25/2025 postreply 08:01:35
• 我的意思是,大家都用獎懲函數(Lasso/Ridge),你列舉的第一條並不是DeepSeek獨特的機製啊? -我是誰的誰- ♂ (0 bytes) () 01/25/2025 postreply 08:05:36
• 找到/發明獨特的獎懲函數才是牛人 -我是誰的誰- ♂ (0 bytes) () 01/25/2025 postreply 08:11:17
• 梁文頌的公司叫做量化同方。而且,deep seek一旦開始 -大宋- ♂ (253 bytes) () 01/25/2025 postreply 08:19:45
• 有個預感 -大宋- ♂ (264 bytes) () 01/25/2025 postreply 08:03:16
• 這才是正確的方向 -我是誰的誰- ♂ (0 bytes) () 01/25/2025 postreply 08:04:12
• 應該是找對了訓練模型的更有效方法。當年Google 打敗Yahoo肯定不是因為更有錢。 -靜靜的頓河02- ♀ (0 bytes) () 01/25/2025 postreply 08:11:19
• 不是都開源了嗎?算法是啥你們牛人們不是看看就懂? -專業潛水媽- ♀ (0 bytes) () 01/25/2025 postreply 08:16:47
• 我要能一看就懂,還有空在這聊天嗎?哈哈。 -靜靜的頓河02- ♀ (0 bytes) () 01/25/2025 postreply 08:20:48