美國政府不惜犧牲部分芯片大廠(如英偉達,超威半導體等)的經濟利益,也要阻隔大陸廠商獲得高端人工智能芯片(下圖 Silicon Expert/NORTON ROSE FULBRIGHT)。這是因為從軍事戰略的重新調整到外交的重建,人工智能將成為世界秩序的關鍵決定因素。人工智能不受恐懼和偏好等主觀因素的影響,為戰略決策帶來了新的客觀性。但即使人工智能為人類提供了客觀性,最後做決定的 - 無論是決定開戰還是締造和平 - 還應該是人。保留人類的主觀性,這對於國家/個體負責任地行使武力至關重要。戰爭中的人工智能將揭示人類最好和最壞的表現 - 它既可以作為發動戰爭的手段,也可以作為結束戰爭的手段。
人類長期以來一直在努力建立越來越複雜的製度,以使任何單一國家都無法絕對控製其他國家。在一個主要行為體仍然是人類的世界裏 - 即使有人工智能來為我們提供信息、谘詢和建議 - 各國仍應在共同行為規範的基礎上享有一定程度的穩定性。當然,這些建立在共同行為規範基礎上的穩定性,會隨著時間的推移而調整。
但如果人工智能成為一個幾乎獨立的政治、外交和軍事實體,這將迫使傳統的權力平衡轉變為新的、未知的不平衡。民族國家間的國際協調 - 過去幾個世紀裏實現的那種脆弱且不斷變化的平衡 - 之所以能夠進行,部分原因是參與者之間的平等。在一個嚴重不對稱的世界,一個或一些國家可能比其他國家更先和更容易地采用最先進的人工智能。這就會讓世界變得難以預測。在某些情況下,一些人/國家可能在軍事或外交上對抗一個高度支持人工智能的國家,或者對抗人工智能本身。人工智能會導致人類激烈競爭,甚至可能掙紮求生,使社會的內部崩潰,外部爆發衝突並失去控製。
除了尋求安全之外,人類長期以來一直在為追求勝利或捍衛榮譽而戰。現有的人工智能機器缺乏任何勝利或榮譽的概念。例如,它們可能永遠都不會以一場血腥的傳統戰爭,而是根據複雜的計算來快速而謹慎地完成新的領土劃分和轉移。或者,他們可能會為了結果而不惜犧牲人類生命地行事,從而導致一場血腥的人類生命消耗戰。也就是說,人工智能可能使人類競爭發生徹底的轉變,完全避免殘酷的人類相互殘殺。換另一種情況,人工智可以把我們帶回野蠻原始的過去。
11月22日一期的《外交事務》發表了由亨利·A·基辛格(1973-1977任前國務卿,已故)、埃裏克·施密特 (Eric Schimdt 特別競爭研究項目主席、前穀歌首席執行官)和克格·蒙迪 (Craig Mundie Alliant計算機係統公司聯合創始人、前微軟首席執行官高級顧問)聯合署名文章《人工智能時代的戰爭與和平》(War and Peace in the Age of Artificial Intelligence)。該文改編自他們共同撰寫出版的《創世紀:人工智能、希望和人類精神》(Genesis: Artificial Intelligence, Hope, and the Human Spirit)一書。以下為文章的主要內容。
人工智能安全困境
許多國家都專注於如何“贏得人工智能競賽” (下圖 Linkedin/WIRED)。在某種程度上,這種驅動力是可以理解的。文化、曆史、交流和觀念共同構成了當今大國之間的外交局勢,加劇了各方的不安全和猜疑。各國領導人都認為,在未來的任何衝突中,戰術優勢的增加可能起到決定性作用,而人工智能可以提供這種優勢。一場生存安全困境正在等待著我們。任何擁有超級人工智能(即比人類更聰明的人工智能)的人類行為者,首先合乎邏輯的願望可能是盡力確保沒有其他人獲得同樣的技術。照此邏輯合理地推論,競爭對手也都會考慮采取類似的行動 – 阻止別的對手獲得自己獲得的強大技術。
除了戰爭之外,超級人工智能可以顛覆、破壞和阻止競爭程序。例如,人工智能既可以以前所未有的威力增強傳統計算機病毒,也可以偽裝成計算機病毒為自己服務。就像計算機蠕蟲 Stuxnet(2010年發現的網絡武器,據認為摧毀了伊朗五分之一的鈾離心機)一樣,人工智能代理可以通過掩蓋其存在的方式破壞競爭對手的進展,讓敵方科學家隻能捕風捉影。憑借其操縱人類心理弱點的獨特能力,人工智能還可以劫持競爭對手國家的媒體,製造大量令人震驚的虛假信息,從而激發對手國內大眾反對本國人工智能能力的進一步發展。
最大的人工智能模型已經在與互聯網其他部分斷開連接的安全網絡上進行訓練,故各國很難清楚地了解自己在人工智能競賽中相對於其他國家的地位。一些高管認為,人工智能開發本身遲早會遷移到堅不可摧的掩體中,掩體中運轉人工智能的超級計算機將由核反應堆提供動力。甚至現在就有數據中心建造在海底。很快它們可能會被隔離在環繞地球的軌道上。企業或國家可能會逐漸“隱匿”變得悄聲無息,不再發布人工智能研究成果,這不僅是為了避免讓惡意行為者有機可乘,還可以掩蓋自己的發展速度。為了隱瞞其研發的真實情況,有國家甚至可能會故意發布誤導性研究成果,並借助人工智能來製造讓人信以為真的謊言。考慮到衡量像智能這類抽象東西的進展的複雜性和模糊性,人工智能競賽極其難以預測。盡管有些人認為人工智能的優劣與相應的人工智能模型大小相關,但更大的AI模型並不一定在任何條件下都占優勢,大模型也不一定總是勝過大規模部署的小模型。更小、更專業的人工智能機器可能會像一群無人機對抗航空母艦一樣運作 - 無法摧毀它(航母),但足以使其失效。
在現實生活中,往往當一行為者表現出某一特定能力時,人們會視該行為者具整體優勢 - 事事行樣樣精。然而,人工智能僅僅是指一種機器學習的過程,它不僅嵌入在單一技術中,還嵌入在廣泛的技術中。因此,AI在任一單領域的能力並不意味著它在所有別的領域也出類拔萃 – 不同領域裏事物發展通常有著完全不同的驅動因素。此外,近年來人工智能能力的指數級和爆炸式增長表明,進步的軌跡既不是線性的,也不是可預測的。一參與者現在可能“領先”另一參與者大約幾個月或幾年,但某特定時刻在某關鍵領域突然出現的技術或理論突破,就可能會顛覆現有參與者的“領先”與落後地位。
此外,在AI的世界裏,沒有任何決策人可以相信所獲情報是最可靠的,不可以合理地懷疑事物的真實性。當一名決策者在做出決策時,她/他已經或必須考慮到自己的言行會遭到監視或受到暗藏的惡意扭曲。因此,任何做前瞻性決策的人都要從最壞的情況出發,在做戰略決策時優先考慮速度和保密性。人類領袖還有這麽一種恐懼:在人工智能領域是贏者通吃 - 不存在第二名。在這種壓力下,政府決策人寧可在安全等領域尚不成熟的條件下,也要盡快地部署人工智能,這樣就能夠先於對手(國)威懾外部幹擾。
戰爭的新範式
在數字戰爭時代,“閃電戰”有了新的含義 - 瞬時和無處不在。攻擊者無需犧牲殺傷力來保持機動性,因為地理位置不再是製約因素。這種組合在很大程度上有利於數字進攻,但人工智能時代被攻擊方的反應速度提高,網絡防禦能夠與網絡攻擊相匹敵。在動能戰中,人工智能將引發另一次飛躍。例如,無人機將非常快速,機動性令人難以想象。當人工智能不僅可引導一架無人機,還可指揮無人機隊時,AI就可構建不同的無人機雲和同步飛行的無人機群,這時無人機隊成為一個統一、有凝聚力、同步性完美的集體(下圖 Linkedin/IDST)。未來的無人機群將毫不費力地打散並重組為各種規模的單位,就像精英特種作戰部隊由可擴展的分隊組成一樣,每個分隊都能夠獨立作戰。此外,人工智能將提供同樣快速和靈活的防禦。用傳統炮彈擊落無人機艦隊是不切實際的,甚至是不可能的。但是,人工智能槍支發射的是光子和電子(而非彈藥),可以重現與太陽風暴相同的致命致殘能力,太陽風暴可以摧毀暴露衛星的電路。
人工智能武器將具有前所未有的精確性。科學與戰爭的聯盟確保了儀器的準確性不斷提高,人工智能有望取得更多突破,將縮小最初作戰意圖和最終結果之間的差距,包括致命武力的應用。無論是陸基無人機群、部署在海上的機器軍團,還是未來的星際艦隊,機器都將擁有高度精確的人類殺傷能力,幾乎是百發百中。AI打擊破壞的大小與界限將隻取決於人類和機器的意誌和克製。因此,人工智能時代的戰爭將主要歸結為評估對手的意圖及其戰略應用,而不是對手的能力。在核時代,我們就已經進入了這樣一個階段。隨著人工智能不斷證明其作為戰爭武器的價值,其動態和重要意義將變得更加清晰。
有了人工智能這樣的技術,消滅人類生命可能不是人工智能戰爭的主要目標。事實上,未來戰爭中人工智能可以完全不用人類參與作戰,所以戰爭不那麽致命。同樣,人工智能不大可能侵略領土 – 卻肯定會對數據中心和其他關鍵數字基礎設施更上心。因此,輸掉一方之所以繳械投降並非因為己方士兵數量減少和軍械彈藥沒了,而是因為尚存的矽盾(芯片)已不足以拯救其掌握的技術資產。戰爭可能會演變成一場純粹的機械死亡遊戲,決定因素是人類(或人工智能)的心理力量。
甚至支配新戰場的動機在某種程度上也是陌生的 - 人工智能戰爭不太可能涉及情感 - 愛恨情愁,更不用說士兵勇敢/膽怯/痛苦的概念了。另一方麵,人工智能戰爭仍然包含自我、身份和忠誠 - 盡管這些身份和忠誠的性質可能與我們今天理解的含義不一致。戰爭中的算計一直相對簡單:無論哪一方首先發現無法忍受戰鬥的痛苦,就可能棄械投降接受失敗被征服。如果人工智能戰爭中不存在對自己缺點的意識,也沒有疼痛感(因而無法忍受),什麽能夠促使被引入戰爭的人工智能克製自己,又會以什麽方式來結束它所發動的衝突呢?在棋賽中,未被告知遊戲結束規則的人工智能,它會一直玩到彈盡糧絕最後一枚棋子。人類的人工智能戰爭會以同樣的方式結束嗎?
地緣政治重組
起源於17世紀中葉《威斯特伐利亞和約》的主權民族國家概念隻有幾個世紀的曆史,但主權民族國家可能不適合人工智能時代。事實上,隨著大規模虛假信息和自動歧視引發人們對主權民族國家的信心喪失,人工智能可能會對各國政府的固有權力構成挑戰。或者,人工智能可能會改變現存體係中競爭對手的相對位置。如果人工智能主要由民族國家自己掌握,一種可能是人類會走向一個不再有霸權的世界,另一種可能就是一個民族國家的人工智能技術強弱決定該國的國際地位。但人工智能技術也可能催化出一個全新的係統,一個放棄民族國家權力的全球治理係統(下圖 CAMPUS TECHNOLOGY/Linkedin)。
一種可能性是,擁有和開發人工智能的公司將全麵獲得社會、經濟、軍事和政治權力。今天的政府被自己麵臨的兩難困境束縛住手腳:既當私營企業的拉拉隊,利用軍事力量、外交資本和經濟實力來推動本土企業的發展,又支持為普通公民及其隱私保密,但人們卻普遍因企業的貪婪和壟斷而對其持懷疑態度。政府麵對的這兩者之間的矛盾似乎難以調和。與此同時,企業間可以結成聯盟來鞏固其本已相當強的實力。這些企業聯盟可以建立在優勢互補和共享利潤之上,或者是因為它們擁有開發和部署人工智能係統的共同理念。這些企業聯盟可能會承擔傳統的民族國家職能,將分散的數字網絡培育為其治理領域,而不會去尋求劃定和擴張有界領土。
還有另一種選擇。不受控製的AI開源擴散可能會催生出規模較小的人工智能流派/部落,這些AI流派/部落擁有雖不合格但卻相當強大的人工智能能力,足以在有限的範圍內管理、支持和保護自己。在那些拒絕既定權威、支持去中心化金融、通信和治理的人類群體中,這種由技術支持的原始無政府狀態可能會勝出。或者這樣的群體可能會包含宗教層麵。畢竟,無論基督教、伊斯蘭教還是印度教都比曆史上任何一個國家的影響力都更大、持續時間更長。未來,所屬宗教派別,而非國家公民身份,更可能會成為身份和忠誠的標準。
未來無論是由企業聯盟主導還是由鬆散的宗教團體主導,每個團體宣稱所擁有的“領土”,以及這些團體將爭奪的新“領土”,都不會是物理意義上的幾寸土地,而是數字景觀,一個追求個人用戶忠誠的數字景觀。這些用戶與任何政府之間的聯係都會顛覆傳統的公民觀念,實體之間的協議將不同於普通的聯盟。從曆史上看,聯盟是由領導人建立的,這種聯盟有助於結盟國家在戰爭中增強本國實力。而在和平時期圍繞普通人的觀點、信仰和主觀身份構建的公民身份和聯盟,則需要一個新的(或非常古老的傳統)帝國概念。人們將重新評估宣誓效忠這個帝國所涉及的義務和退出帝國的成本(如果在人工智能糾纏的未來確實存在的話)。
和平與權力
民族國家通過平衡理想主義和現實主義來建立和調整本國的外交政策。回溯曆史,民族國家領導人往往根據現實的需求與他國達成暫時的策略性平衡,而非一勞永逸地解決紛爭。隨著每一個新時代的到來,暫時的策略性平衡被打破,相應地會產生不同政治秩序構成的表達。追求利益與追求價值觀,如何平衡民族國家優勢與全球利益,等等,一直是這種無休止演變的一部分。在外交活動中,小國領導曆來都是直截了當地 - 優先考慮國家的生存需要。相比之下,那些擁有更多選擇手段的全球性帝國領導人其實麵臨著更痛苦的困境 – 一旦選擇錯誤,有可能讓自己身敗名裂,讓國家萬劫不複(下圖 WORLD CRUNCH /Youtube/DiploFoumdation)。
自人類文明開始以來,人類組織單位的發展讓民族國家間的合作達到了新的水平。可到了今天,或許是因為全球挑戰的規模以及國家之間和一國內部明顯的物質不平等,對這一趨勢的強烈抵製已經出現。事實證明,人工智能可以滿足更大規模的人類治理的需求。它能夠精確和真實地洞察國家的需要,以及全球的相互作用。我們希望,出於國內外政治目的而部署的人工智能,不僅僅是用以尋求平衡的權宜之計。理想情況下,它可以提供一個全新的世界最優解決方案,能夠比人類更精確、更長時間地發揮作用,從而使相互競爭的人類利益協調一致。在未來的世界裏,機器智能應對衝突和談判和平將有助於澄清甚至克服傳統困境。
然而,如果人工智能確實能解決我們本應自己解決的問題,人類會麵臨信心危機 - 既過度自信,又缺乏信心。過度自信,是因為一旦我們了解了人類自我糾正能力的局限性,就很難承認我們在處理人類行為存在的問題時將過多權力讓給了機器。缺乏信心,是因為僅用機器即足以解決人類最棘手的問題,這顯示了人類設計的解決方案的缺陷 – 人的局限。如果和平是一種簡單的自願選擇,那麽人(類)的局限的代價就是國家間永無休止的戰爭。一直存在的解決方案,卻從來不是人類設計的,這讓我們人類無地自容。
就安全而言,與人類在科學或其他學術活動中被取代不同,我們可能更容易接受機械第三方的公正性,因為它必然優於人類的自利性 - 就像在有爭議的離婚案中需要調解人一樣。我們的一些最糟糕的天性將使我們得到最好的結果:人類追求自身利益的本能,犧牲他人也在所不惜,也可能讓我們做好準備接受人工智能對人類自我的超越。
參考資料
Kissingeer, H. A. Svchimdt, E. & Mundie, C. (2024). War and peace in the age of artificial intelligence. FOREIGN AFFAIRS. 鏈接 https://www.foreignaffairs.com/united-states/war-and-peace-age-artificial-intelligence?utm_medium=newsletters&utm_source=twofa&utm_campaign=Ukraine%E2%80%99s%20Trump%20Tightrope&utm_content=20241122&utm_term=EWZZZ003ZX