每一句都是ground truth,LLM學到的是the distribution of the next token

來源: 2025-01-29 20:26:00 [舊帖] [給我悄悄話] 本文已被閱讀:

for a input token string