在基礎的transformer上,那就很多缺點限製了,那就不行了。
Transformer的缺點是計算量和建模長度平方級增長,所以各家有很大空間提高改善,看來GPT找到秘籍,穀歌如果還停留
所有跟帖:
•
當然有很多,各家的秘籍,不外泄。例如差的隻能處理短句,好的一本書的長度都可以,空間也是各有各法,穀歌未必有
-dujyy262-
♂
(24 bytes)
()
02/10/2023 postreply
21:15:21