【使用一種獎懲機製訓練模型】,所有的模型訓練都用的吧?要不然會overfit
所有跟帖:
•
這個就比較technical 了。網上有詳細解釋的。
-靜靜的頓河02-
♀
(0 bytes)
()
01/25/2025 postreply
08:01:35
•
我的意思是,大家都用獎懲函數(Lasso/Ridge),你列舉的第一條並不是DeepSeek獨特的機製啊?
-我是誰的誰-
♂
(0 bytes)
()
01/25/2025 postreply
08:05:36
•
找到/發明獨特的獎懲函數才是牛人
-我是誰的誰-
♂
(0 bytes)
()
01/25/2025 postreply
08:11:17
•
梁文頌的公司叫做量化同方。而且,deep seek一旦開始
-大宋-
♂
(253 bytes)
()
01/25/2025 postreply
08:19:45
•
有個預感
-大宋-
♂
(264 bytes)
()
01/25/2025 postreply
08:03:16
•
這才是正確的方向
-我是誰的誰-
♂
(0 bytes)
()
01/25/2025 postreply
08:04:12
•
應該是找對了訓練模型的更有效方法。當年Google 打敗Yahoo肯定不是因為更有錢。
-靜靜的頓河02-
♀
(0 bytes)
()
01/25/2025 postreply
08:11:19
•
不是都開源了嗎?算法是啥你們牛人們不是看看就懂?
-專業潛水媽-
♀
(0 bytes)
()
01/25/2025 postreply
08:16:47
•
我要能一看就懂,還有空在這聊天嗎?哈哈。
-靜靜的頓河02-
♀
(0 bytes)
()
01/25/2025 postreply
08:20:48