其實花點時間學學attention and transformer 並不是難事兒
紫檀對gpt 缺乏了解,一方麵極力貶低,另一方麵極力追捧
所有跟帖:
• 你看我昨天的問貼沒?我就說找大於1000的質數,有啥規律,結果英文版和中文版給出的解釋就差很多。 -Pilsung- ♂ (0 bytes) () 11/27/2023 postreply 09:46:21
• 完全有可能、中英文訓練data不一樣 -青裁- ♂ (0 bytes) () 11/27/2023 postreply 10:40:00
• 我詫異這個基本數學問題(學術問題),居然中國和美國差的老遠的。都沒有一個共識嗎? -Pilsung- ♂ (0 bytes) () 11/27/2023 postreply 10:44:52