人工智能帶來的新恐懼:當自主殺人機器人成為軍方工具

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

去年10月宣布嚴格限製向中國出售最先進的計算機芯片時,拜登總統給出的解釋是,這一定程度上是為了給美國工業一個恢複競爭力的機會。

但在五角大樓和國家安全委員會,還有另外一個議程:軍備控製。

從理論上說,如果中國軍方拿不到芯片,可能會放慢研發人工智能武器的努力。這將讓白宮和世界有時間製定出一些關於傳感器、導彈和網絡武器中使用人工智能的規則,終極目標則是防範好萊塢設想的那種噩夢——把自己的人類創造者關在門外的自主殺手機器人和計算機——變成現實。

現在,圍繞著廣受歡迎的ChatGPT聊天機器人和其他生成式人工智能軟件的恐懼迷霧讓限製中國獲取芯片看起來隻是一個權宜之計。上周四,拜登在白宮參加了一個科技高管會議,這些高管們正在想方設法限製這項技術的風險。拜登的第一句話是,“你們正在做的事情具有巨大的潛力和巨大的危險。”

他的國家安全助手表示,這是對最近有關這項新技術可能顛覆戰爭、網絡衝突以及——在最極端的情況下,顛覆核武器使用決策的機密簡報所做的反應。

但就在拜登發出警告的同時,五角大樓官員在科技論壇上表示,他們認為暫停開發下一代ChatGPT和類似軟件六個月的想法是個壞主意:中國人不會等,俄羅斯人也不會等。

“如果我們停下來,猜猜誰不會停下來:海外的潛在對手,”五角大樓的首席信息官約翰·舍曼上周三表示。“我們必須繼續前進。”

他的直白突顯了當今整個國防界的緊張氣氛。沒有人真的清楚這些新技術在開發和控製武器方麵的能力,而且也不了解什麽樣的軍備控製製度(如果有的話)可能奏效。

這種預感雖然還不明確,但令人深感擔憂。ChatGPT會讓那些以前不容易接觸到破壞性技術的壞人得逞嗎?它是否會加速超級大國之間的對抗,以致沒有時間進行外交和談判?

“這個行業並不愚蠢,你已經看到了自我監管的努力,”穀歌前董事長埃裏克·施密特說,他曾在2016年至2020年擔任國防創新委員會首任主席。

“因此,該行業現在正在進行一係列非正式對話——所有這些都是非正式的——探討人工智能的規則會是什麽樣的,”施密特說,他與前國務卿亨利·基辛格合作撰寫了一係列文章和書籍,探討人工智能顛覆地緣政治的潛力。

任何測試過最初幾個版本的ChatGPT的人都看到了將保護措施置入係統的努力。例如,機器人不會回答有關如何自製藥物傷害他人的問題,或者如何炸毀大壩或破壞核離心機,美國和其他國家在沒有人工智能工具的情況下都參與過這些行動。

但是這類行為黑名單隻能減緩對係統的濫用;很少有人認為他們可以完全阻止這種行為。總是有辦法繞過安全限製,任何試圖關閉汽車安全帶警告係統緊急蜂鳴聲的人都可以證明這一點。

盡管這個新軟件讓更多人看到了這個問題,但對於五角大樓來說,這並不是什麽新鮮事。關於開發自主武器的第一條規則在十年前發布。五角大樓的聯合人工智能中心成立於五年前,旨在探索人工智能在戰鬥中的應用。

一些武器已經處於自動巡航模式。擊落進入受保護空域的導彈或飛機的愛國者導彈長期以來一直都有“自動”模式。這個模式使它們能夠在沒有人工幹預的情況下被飛來的目標觸發並開火,速度快於人類的反應。不過它們應該接受人類的監督,人類可以在必要時中止攻擊。

針對伊朗資深核科學家穆赫森·法赫裏紮德的暗殺行動是由以色列的摩薩德使用由人工智能輔助的自動機槍執行的,盡管看起來存在很大程度的遙控操作。俄羅斯最近表示已經開始製造——但尚未部署——波塞冬核魚雷。如果真的像俄羅斯鼓吹的那樣,這種武器將能夠自主穿越海洋,避開現有的導彈防禦係統,在發射幾天後投送核武器。

到目前為止,還沒有針對此類自主武器的條約或國際協定。在這個時代,放棄軍備控製協議的速度比談判的速度還快,達成這樣的協議的希望渺茫。但ChatGPT及其同類產品提出的挑戰類型不同,而且在某些方麵更為複雜。

在軍隊中,注入人工智能的係統可以加快戰場決策的速度,以至於它們會產生完全意料之外的打擊風險,或者根據誤導性或故意錯誤的攻擊警報做出決策。

“在軍事和國家安全領域,人工智能的一個核心問題是,你如何防禦比人類決策速度更快的攻擊,我認為這個問題尚未解決,”施密特說。“換句話說,導彈來得太快了,必須要有自動反應。但如果這是一個錯誤的信號怎麽辦?”

冷戰期間充斥著錯報的故事——本應用於練習核反應的訓練磁帶不知何故被輸入了錯誤的係統,引發了蘇聯大規模進攻的警報。(是良好的判斷力讓人們沒有驚慌失措。)新美國安全中心的保羅·沙雷在他2018年出版的《無人軍隊》一書中指出,“從1962年到2002年,至少發生了13起險些使用核武器的事件”,這“證實了這樣一種觀點,即未遂事件是核武器的正常情況,即使這很恐怖。”

出於這個原因,在超級大國之間的緊張局勢遠低於今天的時代,曆任總統都試圖通過談判為各方的核決策留出更多時間,這樣就沒有人會匆忙卷入衝突。但是生成命令的AI有可能將各國往反方向推,加快決策速度。

好消息是,大國似乎會非常小心——因為他們知道對手的反應會是什麽樣子。但到目前為止,還沒有經過商定的規則。

前國務院官員、賴斯、哈德利、蓋茨和曼紐爾公司合夥人安雅·曼紐爾最近寫道,中國和俄羅斯還沒有準備好就人工智能進行軍備控製談判,但就這一主題進行會談可以促進有關什麽樣的人工智能用途將被視為“過於危險”的討論。

當然,五角大樓也會擔心同意許多限製。

計算機科學家丹尼·希利斯是用於人工智能的並行計算機的先驅,他說,“我非常努力地爭取製定一項政策,如果你有武器的自主元件,你需要一種關閉它們的方法。”希利斯也曾在國防創新委員會任職。他說,五角大樓的官員不同意,他們說,“如果我們能把它們關掉,敵人也能把它們關掉。”

更大的風險可能來自個人行為者、恐怖分子、勒索軟件組織或擁有先進網絡技術的小國——比如朝鮮——它們學會了如何克隆一個更小、限製更少的ChatGPT版本。他們可能會發現,生成式人工智能軟件非常適合加速網絡攻擊和部署虛假信息。

負責微軟信任與安全業務的湯姆·伯特最近在喬治·華盛頓大學的一個論壇上說,他認為人工智能係統將幫助防禦者更快地發現異常行為,而不是幫助攻擊者。微軟正在加快使用這項新技術改造其搜索引擎。有些專家不同意這一觀點。但他表示,他擔心人工智能可能會“加速”有針對性的虛假信息的傳播。

所有這些都預示著軍備控製新時代的到來。

一些專家說,既然不可能阻止ChatGPT和類似軟件的傳播,最理想的出路是限製推進這項技術所需的專用芯片和其他計算能力。毫無疑問,這將是未來幾年提出的許多不同的軍備控製計劃之一,而看起來各核大國目前對舊武器的談判至少可以說缺乏興趣,更不用提新武器了。

彼采荇兮 發表評論於
***tw.news.yahoo***/%E5%85%B1%E8%BB%8D%E5%85%A5%E4%BE%B5%E5%8F%B0%E7%81%A3-%E9%83%AD%E5%8F%B0%E9%8A%98-%E6%88%91%E5%85%AB%E8%90%AC%E5%80%8B%E6%A9%9F%E5%99%A8%E4%BA%BA%E8%B7%9F%E4%BB%96%E5%B0%8D%E6%89%93-%E6%AD%BB%E9%81%93%E5%8F%8B%E4%B8%8D%E6%AD%BB%E8%B2%A7%E9%81%93%E5%95%A6-223616628.html

美國不行啊,郭台銘說他 3年內造8萬個。
土撥鼠撥土 發表評論於
隻可美國有,他國無
zzbb-bzbz 發表評論於
美國軍方一直在和大廠合作研發殺人機器人,有些有良知的開發者就辭職了
不允許的筆名 發表評論於
Altman說他將全力以赴盡快讓GPT實現自我學習升級。到時候GPT的能力不由人來決定,必將幾何增長。有自主殺人能力的機器,多多益善。
不允許的筆名 發表評論於
有一天突然發現所有自主殺人機器都聽從GPT9.0指揮。
為什麽到處要注冊 發表評論於
人類很會自毀
pellegrino 發表評論於
美國在發展新技術上太自由了,但是市場的阻力也很大

deepfake,crypto,這些技術在中國早久被嚴格限製,但是在美國還是沒有管製

而中國已經大量采納的AI技術,人臉識別,支付,美國卻因為市場原因,發展不起來