RL好點,LLM的底層邏輯就是token和所謂的自相幹/偏相幹(取了個fancy名字叫做Attention)
來源:
我是誰的誰
於
2025-12-02 19:12:00
[
舊帖
] [
給我悄悄話
] 本文已被閱讀:次