RL好點,LLM的底層邏輯就是token和所謂的自相幹/偏相幹(取了個fancy名字叫做Attention)
所有跟帖:
•
是的,雖然有各種技巧,但總體來說還是
-bagel_bites-
♂
(153 bytes)
()
12/02/2025 postreply
19:20:18
•
RL就不會有AGI,但是會在各行各業垂直開花結果,中國在這方麵走在美國前麵了
-我是誰的誰-
♂
(0 bytes)
()
12/02/2025 postreply
19:21:35
•
???
-bagel_bites-
♂
(0 bytes)
()
12/02/2025 postreply
19:24:10
•
估計這些個AI model的ROI越來越少,反而在各行各業的應用還有很多事可以做。
-onward-
♂
(0 bytes)
()
12/02/2025 postreply
20:12:45
•
在應用行業大有可為
-挖礦-
♂
(0 bytes)
()
12/02/2025 postreply
21:07:12