現在人工智能的應用缺少一門適用於高度複且有雜超級計算能力和海量存儲能力之上的指導理論。各人都可以把某一問題的外部環境和前提條件限製得很小,然後想出某種學習模式或計算方法(不管是統計學定律還神經網絡等等),其實質還是程序或狀態機理論的延伸。
我的想法是,基於圖靈機理論的係統不能實現真正的智能,隻能為智能提供一個基礎的環境或原料。
不知道有麽有這種新理論產生,如果你知道,告訴我。
反正那些加點統計學或貝葉斯定律到程序裏,有了應對隨機性的程序,我認為是過時了幾十年的了。我讀那些15年前的人工智能的書,就開始說那些,都是些學數學該行的教授。