評論: AI教父:AI在30年內毀滅人類的幾率高達2成

隻有登錄用戶才能發表評論,點擊此處登錄    返回新聞帖
XM25 發表評論於 2024-12-29 01:43:00
發明原子彈的時候也有這種擔憂。
一個頭兩個大 發表評論於 2024-12-29 01:28:58
人類早該滅絕了,就怕把自己毀滅了,AI還什麽都不是。如果AI能獨立思考和發展,也不見得比人類糟糕。就怕搞出來的AI是個半吊子貨,就像很多被人類圈養的家畜一樣,離開人類分分鍾就完蛋。
旁觀者XWY 發表評論於 2024-12-28 22:15:00
人為萬物之靈歸功於大腦,但一旦著迷,大腦也是人的死穴,不是成為喪屍就是死士。AI將是人腦的主人。
旁觀者XWY 發表評論於 2024-12-28 22:08:00
AI將會是上帝的信使,中世紀的宗教戰爭重現,歸根結底還是人類自相殘殺。
一支鞋飛了 發表評論於 2024-12-28 20:12:17
已經開始了,看看現在大麵積的失業人口吧
彎刀月 發表評論於 2024-12-28 18:18:00
中巴反恐演習就是AI能力的展現,一槍一個,絕不浪費子彈。美軍更牛逼,阿三整的AI已經可以繞開人工指令指揮飛機了
shiren1818 發表評論於 2024-12-28 16:44:15
30年內教父被AI毀滅,人類還是繼續生存,文學城裏照樣燈火通明。
罵人不好 發表評論於 2024-12-28 16:03:30
樓下萬家燈火網友所擔心的挑戰是實實在在的。

現在的人工智能在狹義智能上已經非常先進了,但是還沒有突破廣義的人工智能。我的理解是還沒有自主的思考能力,它的能力還是依賴於數據和訓練。一旦突破廣義的人工智能,國際合作和監管必不可少。不然太危險了。不過我相信人類一定會找到辦法一麵享受人工智能帶來的好處,一麵控製風險。畢竟互相毀滅的能力是監管的最後的保險。當然以人性之貪和人性之惡,濫用人工智能帶來惡果的案例一定會發生的。
wanjiadeng 發表評論於 2024-12-28 15:43:52
即便如此人類也沒有解決辦法。就算美國能做到充分監管AI(可能性不大),也不能保證其他國家也會做到。如果反而讓某個邪惡政權(比如朝鮮)發展出領先技術,豈不是作繭自縛
罵人不好 發表評論於 2024-12-28 15:11:03
人工智能的自主訓練客觀來看是有可能給人類帶來災難的。出於法律和倫理道德的監管必須加強。人工智能的學習過程取決於數據。比如自主學習的過程中,大量的數據如果顯示出通過戰爭可以取得控製權和財富,人工智能會不會挑起戰爭?如果數據告訴它羅織罪名可以打擊對手,獲得權力和巨大的利益,人工智能會不會編造數據,羅織罪名?

如何避免人工智能在自主訓練中接觸到和人類的倫理道德相悖的事實和數據從而訓練出以惡行來追求利益最大化的人工智能?

有人說拔電源就行了。問題上人工智能那個時候一定已經掌握了人的弱點,用利益收買人去給它差電源,或者控製備用電源,估計也不是做不到。一旦人工智能學會了人的詭計,人類就危險了。
seator 發表評論於 2024-12-28 14:49:00
前提是AI有自我思維能力,生成式AI本質上還是個問答機器人
京城老炮1950 發表評論於 2024-12-28 14:44:37
聳人聽聞!AI是人造的,而人是上帝造的。除非人類要自己毀滅自己,否則沒有任何人造的東西可以毀滅人類!
pellegrino 發表評論於 2024-12-28 14:35:24
不會是20%的

必定是100%

天乙貴人 發表評論於 2024-12-28 14:25:50
不需要ai了,直接給掃地機器人做大一點,綁上幾十隻槍,在市中心的mall裏亂開槍就行了。
頁次:1/1 每頁50條記錄, 本頁顯示114, 共14  分頁:  [1]