10月20日一期的《外交事務》(Foreign Affairs)雜誌刊登了一篇由兩位名人撰寫的文章 -- 亨利·A·基辛格(Henry A Kissinger 下圖1 BIOGRAPHY)和愛利森·格拉漢姆(Graham Allison 下圖2 TED Talks)。被中國大陸領導和學術界稱作“中國人民的老朋友”其中基辛格為基辛格協會(Kissinger Associates)主席,曾任美國國家安全顧問(1969年至1975年),和美國國務卿(1973年至1977年)。愛利森·格拉漢姆(Graham Allison)為哈佛大學Douglas Dillon政府學教授。他是《戰爭的命運:美國和中國能逃脫修昔底德的陷阱嗎?》(Destined for War: Can America and China Escape Thucydides’s Trap?)一書的作者。格拉漢姆關於美中間的“修昔底德的陷阱”之說,在國際研究美中關係的圈子裏頗有市場。 該篇文章的題目為“管控人工智能競賽之路”,主要討論方興未艾的美中人工智能競賽及管控的意義。以下介紹他們的主要觀點。
二戰後迄今,地球見證長達78周年的和平(大國間無戰爭)。迫使日本立即無條件投降的廣島和長崎原子彈爆炸後,世界上再沒有任何國家使用核武器了。基辛格和格拉漢姆將曆史上最長的世界和平及避免核戰爭、減緩核擴散的成就歸功於美國領導下的國際秩序,認為它們將作為美國最重要的成就之一載入史冊。今天,世界出現了另一種全新的技術 -- 人工智能。人工智能技術給人類帶來了獨特挑戰,因為它未知、甚至可怕 (下圖 YouTube/crystalloids)-- 人工智能技術的機器會取代人類主宰宇宙嗎;人工智能會打破國家機器對大規模暴力手段的壟斷嗎;人工智能會讓個人或小團體製造傳播能夠大麵積殺死生命的病毒嗎?人工智能是否會危及維護著當今國際秩序的核威懾?
站在人工智能革命前沿的技術領袖們相信,人工智能最終將具有超越人類的能力,人工智能的無限製發展極有可能給包括美國在內的世界帶來災難性後果。因此,各國政府必須立即采取行動對人工智能技術進行立法管控。雖然人類對人工智能的未來發展尚不完全理解,但政府領導人決策時可借鑒核武時代的經驗教訓。當兩個核武超級大國在相互競爭中達到核威懾平衡時,即在一方先發製人的攻擊後,被攻擊方仍然具有完全摧毀先發製人方的反擊能力,美蘇領導人都意識到必須共同防止這項技術迅速傳播到其他流氓無賴國家,從而威脅美蘇自己。
核時代的教訓
1945年原子彈摧毀日本城市後(下圖 DAILY BEAST/The Atlantic),科學家們對他們創造的東西所具備的毀滅能力感到後怕。曼哈頓計劃的首席科學家奧本海默(Robert Oppenheimer)回憶起《薄伽梵歌》(Bhagavad Gita)中的一句話:“現在我成了死亡,世界的毀滅者。”1955年,包括愛因斯坦在內的11位頂尖科學家簽署了《羅素-愛因斯坦宣言》(Russell-Einstein Manifesto),警告核武器的可怕威力,並懇請世界領導人永遠不要使用核武器。
當時美國杜魯門政府的戰爭部長亨利·史汀生(剛剛幫助德國和日本取得勝利)提議,美國與蘇聯領導人斯大林和英國首相丘吉爾分享其對原子彈的壟斷權,以建立一個防止核武器擴散的大國“共管公寓”。杜魯門政府於是成立了一個委員會,由美國副國務卿艾奇遜(Dean Acheson)擔任主席,製定一項戰略來推行史汀生的提議。艾奇遜基本上同意史汀生的觀點:防止核軍備競賽以災難性戰爭告終的唯一方法是建立一個唯一擁有原子武器的國際權威機構。這要求美國與蘇聯和聯合國安理會其他成員國分享其核秘密,將其核武器移交給新的聯合國“原子能開發機構”,並禁止所有國家發展武器或建設自己生產武器級核材料的能力。但蘇聯沒有接受美國的建議,而是繼續研發自己的核武器。幾年後蘇聯成功地製造了自己的原子彈,美國和蘇聯從此進入了“冷戰”時期:一場除了炸彈和子彈之外的競爭。這場競爭的一個核心特征是對核優勢的追求。在鼎盛時期,這兩個超級大國的核武庫包括6萬多件武器,其中一些彈頭的爆炸力超過了有記錄以來所有戰爭中使用的所有武器之和。
幾十年來,華盛頓和莫斯科在核武庫上花費了數萬億美元。在這場競賽的最初幾十年裏,美國和蘇聯都在技術上取得了飛躍。武器爆炸當量從最初的裂變武器的千噸(相當於1000噸TNT釋放的能量)到氫聚變彈的兆噸(相當於100萬噸釋放的能量。)雙方都發明了能夠在30分鍾內將彈頭發射到地球另一端目標的洲際導彈,建立起在數百英裏高空繞地衛星識別幾英寸內大小的目標偵查係統,和導引己方子彈擊中敵方子彈的導航係統。
核威懾概念
由於美蘇雙方均擁有可在對方首先發動攻擊後向攻擊方進行可靠報複的第二次打擊能力,肯尼迪總統就蘇聯在古巴部署的核彈頭導彈與蘇聯領導人赫魯曉夫對峙時,最終選擇了妥協(下圖 The Moscow Times)。因為美國情報界估計,即使肯尼迪成功發動了第一次打擊,蘇聯以其當時的核能力進行的報複性反應可能導致6200萬美國人死亡。1969年,尼克鬆總統的安全顧問基辛格(本文作者之一),指出了這一挑戰:“任何好戰的言論都不能掩蓋現有核儲備足以摧毀人類的事實……沒有比防止核戰爭災難更高的責任了。”
核威懾的概念:向對手展示,任何先發製人的攻擊所獲得的收益,都將大大低於發動攻擊所需成本,從而阻遏對手的攻擊。人們逐漸認識到,成功的威懾不僅需要能力,還需要信譽 -- 潛在的被攻擊方擁有果斷回應的手段和堅定反擊的意願。為此戰略家們創造了MAD(mutual assured vulnerability)一詞,意為“確保相互摧毀”。裏根經常重複的一句話概括了其本質:“核戰爭不可能獲勝,因此永遠不能打。”
雖然美蘇都試圖擺脫這種MAD狀況,但他們最終認識到自己無法做到這一點,因而必須從根本上重新定義兩國關係。由此,美蘇達成了軍備控製的協議,包括一係列隱性和顯性約束,如不幹涉對方對其領土的監視,禁止大氣層核試念,限製反彈道導彈防禦,消除中程核彈道導彈部隊,限製導彈發射器增加,以及減少導彈發射器數量(START,New START)等。也許最重要的是,美國和蘇聯簽署了《核不擴散條約》。因為兩國均認識到,向其他國家擴散核武器對兩國都構成了威脅,並最終麵臨核無政府狀態的風險。今天,世界上有186個國家承諾不發展自己的核武庫。
人工智能的管控
由於人工智能的未知風險,包括億萬富翁埃隆·馬斯克在內的許多人或要求暫停人工智能開發,或提議廢除人工智能,或建議由全球政府機構控製人工智能。但這基本上不會發生 -- 從未有一個大國因競爭對手可能會應用一項新技術來威脅其生存和安全,就放棄為自己開發該技術。即使是美國的親密盟友,如英國和法國,在依賴美國核保護傘的同時,也選擇發展自己的國家核能力。
追溯過往經驗,“確保相互摧毀”的MAD,曾使人類免於核毀滅。但人工智能與核武器之間存在顯著差異,因而不能生搬硬套。首先,不同於政府主導的核技術發展(可不計成本,無視收益),推動人工智能發展的是私營企業家、技術專家和公司,如微軟、穀歌、亞馬遜、Meta、OpenAI和少數小型初創公司及他們的科學家(下圖 The Science Agriculture)。由於這些私人(企業)行為者要權衡風險和回報,國家利益肯定不會是首要考慮對象。
其次,人工智能代表著一個與核武器截然不同的挑戰。核武器很難生產,需要複雜的基礎設施才能完成從濃縮鈾到設計核武器的所有任務。核產品是有形的實物,因此是可數的。可以核實對手在做什麽,就會出現製約因素。人工智能是概念性的,主要進化發生在人類的頭腦中。人工智能的適用性在實驗室中不斷發展,其部署也很難觀察到,因為它是無形的。
第三,人工智能的發展和傳播速度與發展了幾十年的軍備控製不具可比性。由於人工智能的快速發展和傳播速度,政府需要盡快對人工智能進行限製。一些專家認為,機器在未來五年內將開始自己拿主意自我設目標。這就需要在先國家後國際層麵,討論和分析如何將人工智能納入社會安全結構,以及政府與私營部門之間關係的新動力。
值得慶幸的是,開發出生成型人工智能並使美國成為領先的人工智能超級大國的大公司認識到,他們不僅對股東負有責任,而且對國家和整個人類負有責任。許多公司已經製定了自己的指導方針,用於在部署前評估風險,減少訓練數據中的偏見,並限製其模型的危險使用。其他人正在探索如何限製培訓,並對雲計算提供商提出“了解客戶”的要求。朝著正確方向邁出的重要一步是拜登政府7月宣布的一項舉措,該舉措將七家主要人工智能公司的領導人帶到白宮,共同承諾製定指導方針,以確保“安全、保障和信任”。(下圖 Panhandle Post)
伴隨人工智能的無限製發展的巨大風險要求政府和企業領導人立即行動。每一家擁有大規模計算能力來訓練新的人工智能模型的公司,以及每一家開發新模型的公司或研究小組,都應有專人分析其商業人工智能運營對人類和地緣政治的影響。
美國應成立一個跨黨派的國家委員會,該國家委員會由私營部門、國會、軍方和情報界的無黨派前領導人組成。國家委員會應提出更具體的強製性保障措施,包括持續評估訓練GPT-4等人工智能模型所需的大規模計算能力,以及在公司發布任何新模型之前,均需對其進行極端風險壓力測試。這方麵,國家人工智能安全委員會於2021年發布的有關建議,為美國軍方和美國情報機構在與中國大陸的人工智能競爭中采取的舉措提供了動力和方向。
人工智能競賽
在創建自己國內人工智能治理框架的同時,美國也應該與世界上唯二的另一個人工智能超級大國(中國大陸 下圖 KNOWLEDGE AT WHARTON/CHINA EXPERIENCE)開始認真對話。中國大陸科技領域的全國冠軍 -- 百度(中國頂級搜索引擎)、字節跳動(TikTok的母公司)、騰訊(開發出了微信)和阿裏巴巴(電子商務的領導者)-- 正在構建獨特中文版本的ChatGPT。根據世界知識產權組織向彭博新聞社提供的數據,中國大陸機構2022年申請了29853件人工智能領域相關專利,比美國同期的申請數量高出近80%。盡管中國在製造先進半導體的技術方麵仍然落後,但它擁有在不久的將來迎頭趕上,乃至取得領先的必要條件。
因此,拜登和習近平應該盡快會麵,就人工智能軍備控製進行對話。11月12日至18日在舊金山舉行的亞太經合組織會議(APEC峰會)為美中交流提供了一次絕佳機會。拜登和習近平可彼此討論分享本人對人工智能風險的評估、各自國家為防範人工智能災難性風險而采取的措施、以及確保各自國內公司不輸出風險的措施。或許,拜登和習近平應考慮成立一個由美國和中國大陸人工智能科學家以及其他反思這些發展影響的人組成的谘詢小組。拜習會及成立人工智能谘詢小組,將促進雙方在人工智能科領域展開富有成效的討論。除美中接觸和合作外,英國將於11月主辦的人工智能安全峰會,聯合國正進行人工智能風險方麵的對話。這些,都將成為構建一個全球人工智能秩序的全球對話的組成分。
由於每個國家都在尋求利用人工智能來改善公民的生活,同時確保本國社會的安全,因此需要一個全球人工智能秩序。在全球對話的基礎上,各國政府應努力防止人工智能最危險和潛在的災難性後果,並輔之以參與開發大型人工智能模型的各國科學家與國家委員會成員之間的對話。在擁有先進人工智能項目的國家之間進行正式的全球人工智能秩序政府談判,以建立一個與國際原子能機構相當的國際(人工智能)機構。由於人工智能的發展及伴隨的風險,關係到整個人類的安全問題,而非僅僅美中雙邊問題。美中應該協商合作並在采納其他國家意見的基礎上,製定人工智能管控規格,使之成為一個國際秩序的指導原則。
雖然人工智能今天帶來的挑戰與核時代的挑戰不可同日而語,但核軍備控製給世界帶來近80年沒有大國戰爭的和平秩序經驗依然值得借鑒。目前,隻有兩個人工智能超級大國:美國和中國是唯一擁有培養最複雜人工智能模型所需的人才、研究機構和大規模計算能力的國家。這就為世界提供了一個機會 – 像美蘇當年防止核擴散、核毀滅那樣,美中可以製定指導方針,防止人工智能最危險的進步和應用。美國總統喬·拜登和中國國家主席習近平應該抓住這個機會,在11月舊金山亞洲-太平洋經濟合作組織會議後立即舉行首腦會議,麵對麵討論他們認為今天麵臨的最重要的問題。似乎美中也明白茲事體大,故已就兩國領袖可能的11月麵談進行準備。以史為鑒,美蘇能夠成功地共同應對核威脅,美中也應該共同應對人工智能帶來的挑戰,並努力獲得成功,即便兩極分化日愈加劇。因為一遭不慎,人類可能墜入萬丈深淵。
參考資料
Kissinger, H. A. & Allison, G. (2023). The Path to AI Arms Control. FOREIGN AFFAIRS. 鏈接 https://www.foreignaffairs.com/united-states/henry-kissinger-path-artificial-intelligence-arms-control
100歲的老頭子基辛格,其實根本搞不清現在的AI是怎麽回事。Yann.lecun說,在通向真正AI的大路上,現在的AI就像路邊一個賭場,人們被它的光鮮所吸引,走下大路,可能還贏了點錢,但是可能就此忘記了那條大路。
現在的AI技術路線也許很快就走到頭。到時還要另開新路向前發展。限製進一步研究的做法,會成為阻擋AI發展的絆腳石。