哈 指出的很好 第五集主要想說在TRANSFORMER 同一段輸入裏,它不會像 RNN 那樣因為序列太長而丟掉前麵的信息
來源:
挖礦
於
2025-11-26 08:57:25
[
博客
] [
舊帖
] [
給我悄悄話
] 本文已被閱讀:次
這種“記憶”,和 AI 沒有的那種“記憶”,不是一回事