我是30年前涉獵AI,那時LLM(transformer)還沒出現。

具體算法日新月異,但基本機理沒變。給出(Xi,Yi)訓練AI(Ai)收斂到Ai。也就是AI記住了一個(Xi,Yi)case用Ai表達。

ANN神經網絡規模越大,記住的點就越多越準確。對於沒記住或沒見過的點則用各種方法預測。

如回歸,推理演繹歸納(如棋類),數理統計(LLM),有可能蒙對,也可能蒙錯。

我的淺見是:ANN及規模算力固然重要,但也要重視另一大方向:如何把人類邏輯思維的方法有效結合到AI。

如此AGI才能實現。

請您先登陸,再發跟帖!