2017年, tranformer出現, 接下來的幾年, 它的性能一直不到飽和趨勢, 大概是今年開始, 似乎開始出現飽和趨勢。也許是壞消息? 看您怎麽看了。
這裏倒有個好消息
所有跟帖:
•
應該是好事。舊的不去,新的不來。Transformer方法,出道即巔峰,短短幾年,就成為幾乎所有AI大模型的基礎。
-泥川-
♂
(0 bytes)
()
06/20/2024 postreply
16:52:55
•
能力到了上限,才會想到用新方法取代。按Yann LeCun的說法,自回歸大型語言模型注定會失敗,所以需要新模型。
-泥川-
♂
(0 bytes)
()
06/20/2024 postreply
16:54:51