關鍵在於缺乏公正實驗平台。Geoffrey Hinton教授說AGI對人類有危險。大語言模型是否會助長詭辯、淹沒真相?

本文內容已被 [ ScottGu ] 在 2024-05-24 16:30:38 編輯過。如有問題,請報告版主或論壇管理刪除.

注意:主帖裏提到的強有力不等於正確。正確的一方可能被權勢、財勢、詭辯或情緒誤導等等一時碾壓。所以需要讓邏輯有時間和機會慢慢發揮影響。

三十多年前我研究過科學邏輯和智力科學理論。後來Google炒作無人汽車時,我就意識到其中的問題並開始批評。黃仁勳先生是後來把人工智能當戰略並投資Tusimple。所以我不是針對他。

黃仁勳先生說人工智能五年內可以通過任何人類考試。現有標準人類考試是針對人類應試者,基於應試者都具有基本人類智力的前提,所以不適用於測試人工智能語言模型。很多問題對人類應試者不重要,但對測試人工智能語言模型很關鍵。

潮起潮落、時世滄桑,遠比一般人想象的複雜。世界不公正,很快會到想聽真相都聽不到的地步。

請您先登陸,再發跟帖!