每一句都是ground truth,LLM學到的是the distribution of the next token
來源:
IT-guy
於
2025-01-29 20:26:00
[
舊帖
] [
給我悄悄話
] 本文已被閱讀:次
for a input token string