要這樣說的話,全世界的LLM用的已知技術

所有LLM,不管是ChatGPT, LLama, Gemini全都基於穀歌的Transformer,而Transformer也不算新架構,Transformer的論文"Attention is All You Need"中的Attention用的是1965年就提出的Multiplicative Attention Mechanism。

請您先登陸,再發跟帖!