Scott Gu

不公正,很快會聽不到真相。馬爾薩斯模型及改進型和認為人口控製類似火箭控製是數學和控製理論的嚴重錯誤。現在購買力和公司盈利全靠巨額政府債務泡沫的信用杠杆放大效應支撐。指鹿為馬會開啟潘多拉魔盒,使製度成為笑料,毀滅文明。
正文

無人汽車、語言模型和其它人工智能達不到鼠和貓智力。通用人工智能(AGI)根本不可能

(2024-10-23 16:22:04) 下一個

機器智力的瓶頸在於缺乏對生命的理解,在於複雜邏輯和判斷力上的缺陷,不在於計算力。

歐盟腦模擬計劃早就如我分析那樣失敗了,計算機連鼠腦和貓腦都模擬不了、連鼠和貓的智力都達不到,怎麽可能擁有人類對生命的理解和在此之上的思考和行動?所以計算機神經網絡和生物神經網絡有本質不同。而美國BRAIN Initiative項目無法研究mirror neuron現象和自由意誌問題等等關鍵。

黏菌解決結構問題的能力顯示:人工智能解決蛋白質結構問題的能力並無很高智力。結構問題非常局部、嚴格受限。對機器智力、生命智力和人類特有智力需作結構、係統的特征研究。

事實上根據The Guardian報道,已經有個Safe Street Rebel group,他們 realized quickly that placing a traffic cone on the hood of a self-driving car interfered with sensors and placed it in “panic mode”, rendering it immobile until a human employee could come to rescue it.

鼠或貓在類似情況下至少會想辦法脫困,有些問題可以繞過去。而無人汽車隻能一動不動等人解救。這是無人汽車智力達不到鼠和貓的進一步證據。以前無人汽車公司長期路試和模擬測試應該沒有發現這個問題,否則為何不糾正?當然人類可以修改程序解決這一具體問題。但類似問題無法窮盡。所以,無人汽車測試和糾錯方法都有嚴重問題。語言模型問題更多更複雜。需要新的科學邏輯和智力科學理論。

黃仁勳先生和其他人最近又投資無人汽車公司時,不知道無人汽車智力不及鼠和貓?現在還主張五年內實現通用人工智能(AGI)?Mirror neuron現象和自由意誌問題又有什麽後果?大學教育有問題吧!
~~~~~~~~~~~~~~~~~~~~~~~~~~~

Geoffrey Hinton教授是否對物理學研究作出過重要貢獻,他的計算機神經網絡理論能否mimics the brain,是否used physics to find patterns in information和是否是popular physics,以及他是否會接受這個諾貝爾物理學獎,事關科學的誠信。科學研究不能指鹿為馬。

剛辭職的斯坦福大學前校長的長期學術問題和其它受壓力而身敗名裂的隻是冰山一角。學術圈對問題和錯誤已熟視無睹,今年諾貝爾“物理學”獎的低級概念和邏輯錯誤進一步證實了這一點。同行評審是否會淪為無恥的分髒?指出重要學術錯誤,會受威脅。毀滅文明的不是人工智能,而是指鹿為馬的人類群體。

個人計算機和智能手機市場早在萎縮,人工智能建立在明目張膽的錯誤和泡沫上。現在購買力和公司盈利全靠巨額政府債務的信用杠杆效應支撐。中間環節會斷裂,一連串信用杠杆大泡沫遲早會破滅。台灣人口也已長期出生少於死亡。作最後裁決的是自然規律,不是人類。

到指鹿為馬地步,還能維持多久?多說沒用。不再介紹我的科學邏輯和智力科學新理論。

[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.