Transformer之前是用RNN(recurrent structure). 而 T用自我attention
所有跟帖:
•
可以
-兄貴-
♂
(0 bytes)
()
02/10/2023 postreply
20:46:40
•
是的。這就是區別所在!
-兄貴-
♂
(0 bytes)
()
02/10/2023 postreply
20:50:49