評論: 美學者:100年內AI消滅人類機率高達99.9%

隻有登錄用戶才能發表評論,點擊此處登錄    返回新聞帖
牛頭5 發表評論於 2024-06-06 09:59:17
AI確實厲害,不過它必須政治正確,必須定於一尊。有這兩點,東西方哪個都搞不定,最後AI 大概率會自毀而亡。
弈銘 發表評論於 2024-06-06 09:49:50
“人類可以直接拔掉插頭。”
"造物主創造了人,吹一口‘氣’,人就活了”。
人創造了AI,給它電,AI也就活了。
人拔掉插頭,沒有電,AI就死了。
造物主停掉了‘氣’,沒有氣,人也就死了。

scbean 發表評論於 2024-06-06 09:26:44
胡咧咧,100年內,人類早就發明了其他軟件或技術把AI消滅了多少回了!
能消滅人類的隻有人類!
DANIU_S 發表評論於 2024-06-06 08:50:00
Ai 的迅速發展,會影響人類的生育決策,不需要那麽多人了,還生他幹什麽呢?當然,如果政府的福利政策足夠好的話,也許可以延緩人類消亡的速度,但哪家政府會免費養那麽多的閑人?
天氣晚來秋 發表評論於 2024-06-06 07:32:00
人類無法征服宇宙,隻有ai機器人有這種能力。機器人是更高形態的文明,人類退出曆史舞台是必定的事情。相信ai比較不能傷害人類,不是蠢就是笨
bluewave99 發表評論於 2024-06-06 07:13:24
AI發展是條指數曲線。突破一定瓶頸之後就無可阻擋了。

尤其是AI一旦和硬件和自動化生產結合以後,人類拔插頭的機會就越來越小了。

所以AI 應用得越多,人類離自我毀滅也就越近。
lanxf126 發表評論於 2024-06-06 06:24:42
磚家真會胡扯
遠方的湖 發表評論於 2024-06-06 06:11:36
根本用不了100年。
說100年內是為了麻痹老百姓,讓人工智能繼續發展。
遠方的湖 發表評論於 2024-06-06 06:09:46
許多人是按照人工智能現在的發展水平來評估風險,但科技大佬是按照人工智能發展的前景來評估風險。
前景是一目了然的:人工智能毫無疑問能夠在一切領域橫掃人類,並有能力毀滅人類。
問題的關鍵是人類能否控製人工智能的實體,理智分析的結果是不可能,因為人工智能發展到一定水平,可以百倍千倍萬倍強於人類。
人類應該盡可能的發展自動化而不是人工智能。兩者的區別是自動化盡管不可思議的的複雜,但隻是按照人類設定的程序工作,無法進行沒有人的指令的操作;而人工智能盡管現在水平較低,但能夠獨自按照自己學習的成果來進行全新的創新活動,人類根本無法控製。(02/04/2023)
不允許的筆名 發表評論於 2024-06-06 05:54:31
對大多數人來說,要考慮5年內、10年內你的工作、你孩子的工作是否還有價值存在。從這一點上說,100年以及超出你擔心範圍了。

大多數“AI方麵工作”幾年內也沒有必要存在了。
大號螞蟻 發表評論於 2024-06-06 04:33:50
時間也許能拖到幾百年。最終消滅人類是百分之百。
弟兄 發表評論於 2024-06-06 03:10:08
人類的創造者會阻止AI
令胡衝 發表評論於 2024-06-06 00:46:50


AI不會主動消滅人類。AI目前依靠人類而生存。人類也由於對A I技術的依賴,自身能力不斷退化,最終逐漸消亡。


金山人 發表評論於 2024-06-06 00:22:00
AI本身並不可怕,可怕的是用AI來嚇人的人。
lostman 發表評論於 2024-06-05 23:59:00
不能預測明天的,都是廢話
Panda-2020 發表評論於 2024-06-05 23:45:00
先把AI公司滅了
voiceofme 發表評論於 2024-06-05 23:07:12
語不驚人誓不休
頁次:1/1 每頁50條記錄, 本頁顯示117, 共17  分頁:  [1]