其實花點時間學學attention and transformer 並不是難事兒
紫檀對gpt 缺乏了解,一方麵極力貶低,另一方麵極力追捧
所有跟帖:
•
你看我昨天的問貼沒?我就說找大於1000的質數,有啥規律,結果英文版和中文版給出的解釋就差很多。
-Pilsung-
♂
(0 bytes)
()
11/27/2023 postreply
09:46:21
•
完全有可能、中英文訓練data不一樣
-青裁-
♂
(0 bytes)
()
11/27/2023 postreply
10:40:00
•
我詫異這個基本數學問題(學術問題),居然中國和美國差的老遠的。都沒有一個共識嗎?
-Pilsung-
♂
(0 bytes)
()
11/27/2023 postreply
10:44:52