RL好點,LLM的底層邏輯就是token和所謂的自相幹/偏相幹(取了個fancy名字叫做Attention)

來源: 2025-12-02 19:12:00 [舊帖] [給我悄悄話] 本文已被閱讀: