2017年, tranformer出現, 接下來的幾年, 它的性能一直不到飽和趨勢, 大概是今年開始, 似乎開始出現飽和趨勢。也許是壞消息? 看您怎麽看了。
這裏倒有個好消息
所有跟帖:
• 應該是好事。舊的不去,新的不來。Transformer方法,出道即巔峰,短短幾年,就成為幾乎所有AI大模型的基礎。 -泥川- ♂ (0 bytes) () 06/20/2024 postreply 16:52:55
• 能力到了上限,才會想到用新方法取代。按Yann LeCun的說法,自回歸大型語言模型注定會失敗,所以需要新模型。 -泥川- ♂ (0 bytes) () 06/20/2024 postreply 16:54:51