AI核心之一的transformer和self attention,是幾十年前的理論嘛?
看來你比較懂,那請直接回複一下
回答: are you serious?為啥不能?我秋天一篇會議論文,你可以查一下,說不定你能搜得出來。穀歌一幫人做了類似的比較
由 newbiestock
於 2025-08-23 19:52:16
所有跟帖:
•
在回答一次,不是和是。transformer不是突破性的,隻是在2015年的基礎上改的;2015年的是不是突破性的,自己
-newbiestock-
♂
(119 bytes)
()
08/23/2025 postreply
20:16:34