Transformer的缺點是計算量和建模長度平方級增長,所以各家有很大空間提高改善,看來GPT找到秘籍,穀歌如果還停留

來源: dujyy262 2023-02-10 21:07:39 [] [舊帖] [給我悄悄話] 本文已被閱讀: 次 (86 bytes)
本文內容已被 [ dujyy262 ] 在 2023-02-10 21:09:11 編輯過。如有問題,請報告版主或論壇管理刪除.
回答: 檢索 和 GPT,一些粗淺體驗兄貴2023-02-10 20:17:15

在基礎的transformer上,那就很多缺點限製了,那就不行了。

所有跟帖: 

Mechanical 的東西,能有啥秘籍?所有的algorithm就是重新編排優化下,沒有化學反應啊 -avw- 給 avw 發送悄悄話 (0 bytes) () 02/10/2023 postreply 21:10:46

當然有很多,各家的秘籍,不外泄。例如差的隻能處理短句,好的一本書的長度都可以,空間也是各有各法,穀歌未必有 -dujyy262- 給 dujyy262 發送悄悄話 (24 bytes) () 02/10/2023 postreply 21:15:21

請您先登陸,再發跟帖!

發現Adblock插件

如要繼續瀏覽
請支持本站 請務必在本站關閉/移除任何Adblock

關閉Adblock後 請點擊

請參考如何關閉Adblock/Adblock plus

安裝Adblock plus用戶請點擊瀏覽器圖標
選擇“Disable on www.wenxuecity.com”

安裝Adblock用戶請點擊圖標
選擇“don't run on pages on this domain”