對Deepseek的一個主要指責是他的訓練數據用了ChatGPT的輸出,這個指責也延伸到豆包。搜索了一下發現矽穀的另一個當紅炸子雞Perplexity也不是完全用原始數據訓練自己的大模型,而是在ChapGpt, Claude和其他大模型的基礎上再訓練,因為這樣成本低很多。豆包好象現在是否認他們用了Chatgpt的輸出做訓練。不知道用其他模型的輸出做訓練有沒有侵權的問題。
問題是這樣一來做基礎訓練還有什麽價值,訓練結果不都成了給其他次級訓練公司買單嗎?可是OpenAI,穀歌和Anthropic 卻在成百上千億做基礎模型訓練,目的是什麽?將來怎麽掙錢?