不是, transformer的paper2017才出,它是chatgpt的基礎

來源: haifengyuan 2023-05-22 10:59:14 [] [舊帖] [給我悄悄話] 本文已被閱讀: 次 (30 bytes)
本文內容已被 [ haifengyuan ] 在 2023-05-22 11:00:08 編輯過。如有問題,請報告版主或論壇管理刪除.

當然研究早就有

所有跟帖: 

Transformer隻是 generate human-like text, 和回答結果的準確性沒啥關係, 包裝了一下 -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 05/22/2023 postreply 11:02:28

這個model訓練出來的gpt, 和以前的比,回答的才準確 -haifengyuan- 給 haifengyuan 發送悄悄話 (0 bytes) () 05/22/2023 postreply 11:04:59

我剛用了 開源的privateGPT, 是基於GPT4的, 和我兩年前用GPT2的結果一樣 -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 05/22/2023 postreply 11:07:02

privateGPT用的是SentenceTransformers -testmobile- 給 testmobile 發送悄悄話 (1184 bytes) () 05/22/2023 postreply 11:16:29

請您先登陸,再發跟帖!

發現Adblock插件

如要繼續瀏覽
請支持本站 請務必在本站關閉/移除任何Adblock

關閉Adblock後 請點擊

請參考如何關閉Adblock/Adblock plus

安裝Adblock plus用戶請點擊瀏覽器圖標
選擇“Disable on www.wenxuecity.com”

安裝Adblock用戶請點擊圖標
選擇“don't run on pages on this domain”