生成式AI早有了,你說了這麽多,其實也就是所謂大模型,穀歌的transformer給大模型提供了一個新方法,

可以提高超大規模參數下的性能。所以歸根結底還是算法的提高,然後用這個方法堆算力scaling law也是有極限的,大家基本已經確定目前已經接近或達到這個極限,再堆下去甚至負作用了。

任何算法都有其極限和適用範圍,對技術一知半解的門外漢就隻能靠生搬硬套的通俗講解來想象,當然會被牽著鼻子走。

請您先登陸,再發跟帖!