在基礎的transformer上,那就很多缺點限製了,那就不行了。
Transformer的缺點是計算量和建模長度平方級增長,所以各家有很大空間提高改善,看來GPT找到秘籍,穀歌如果還停留
所有跟帖:
•
Mechanical 的東西,能有啥秘籍?所有的algorithm就是重新編排優化下,沒有化學反應啊
-avw-
♀
(0 bytes)
()
02/10/2023 postreply
21:10:46
•
當然有很多,各家的秘籍,不外泄。例如差的隻能處理短句,好的一本書的長度都可以,空間也是各有各法,穀歌未必有
-dujyy262-
♂
(24 bytes)
()
02/10/2023 postreply
21:15:21