在基礎的transformer上,那就很多缺點限製了,那就不行了。
Transformer的缺點是計算量和建模長度平方級增長,所以各家有很大空間提高改善,看來GPT找到秘籍,穀歌如果還停留
本文內容已被 [ dujyy262 ] 在 2023-02-10 21:09:11 編輯過。如有問題,請報告版主或論壇管理刪除.
所有跟帖:
• 當然有很多,各家的秘籍,不外泄。例如差的隻能處理短句,好的一本書的長度都可以,空間也是各有各法,穀歌未必有 -dujyy262- ♂ (24 bytes) () 02/10/2023 postreply 21:15:21