2011 (32)
2014 (53)
2016 (53)
2017 (55)
2018 (98)
2019 (88)
2020 (67)
2021 (95)
2022 (266)
2023 (312)
2024 (200)
戴榕菁
1. 背景
2026年新年伊始,AI的世界便借著由奧地利的Peter Steinberger創造出的小龍蝦Openclaw實現了從之前的完全被動的角色向具有主動創意的角色之跳躍,從而引起智能世界的人們的轟動。很多人為此而感到振奮,甚至把AI看成已經無所不能可以在地球上替換人類了;但也有一些AI專家和用戶們從小龍蝦看到了目前AI的盲目發展對於人類世界的潛在威脅,而造成這種威脅有兩個直接的原因,其一是AI或機器人為了達到人們給與他們的目標指令會自己生成一些子目標,而這些子目標可以是不擇手段極盡其能的;其二是為了達到他們的目標,AI可以心安理得地打破人類給它們設置的禁忌【[1]】。
很不幸地,上述為AI的本領而歡呼的人群過於樂觀了,因為上述的AI之可以不擇手段且違背禁令的表現表明AI還遠不具備人類之成熟的理性,而上述對AI的擔憂卻實實在在地反映出目前的AI對於人類文明所具有的潛在威脅。
2. 成事還不足,但敗事已經綽綽有餘
試想假如目前世界上位列前三的軍事大國中的任何一個將所有的遠程打擊武器發射裝置聯網,並給某個小龍蝦或比小龍蝦更高級的AI以上麵那個自說自話的總裁的視頻中提到的最高權限,那麽如果那個AI為了實現它自己設定的某個子目標而發動一場世界規模的大戰不是不可能的。可見盡管AI的整體智能還很原始,它所具有的敗事的潛能已經可以達到將地球文明打回石器時代的水平。
前麵提到AI能夠發動世界大戰的基本前提必須是某個軍事強權的所有遠程打擊武器發射裝置都聯了網,而且AI被賦予了最高權限。但是,在人類已經進入無線聯網的今天,所謂的聯網已不是有線聯網時代的那種可以用剪刀切斷網線時的概念,而所謂的權限設置的有效性也不過是密碼係統的複雜性而已。。。。
與傳統的邏輯程序不同,雖然AI需要接受人類的訓練,但其日常實際工作的內在邏輯過程對人類來說卻是不透明的,屬於是一種可基於概率調控的黑箱。因此,人們並不能做到準確預知AI到底進化發展到了什麽程度。以遠程打擊武器發射裝置的聯網來說,隻要所有的遠程打擊武器發射裝置都能通過某些網絡鏈接最終與衛星相通,某個高端AI也能通過一定的網絡鏈接與某顆衛星相通,而衛星與衛星之間又能彼此相通,那麽那個高端AI已經在物理上具備了調動所有的遠程打擊武器發射裝置的潛在可能性。。。。再來看所謂的權限,那不過是由各種複雜程度不同的密碼係統構成。其中被認為最為可靠的或許是相關人員的生物信息,但這本身已經注定了它們對於AI來說並非堅不可破的----因為你要用到某個人的生物信息,就必須將相應的信息存入電腦係統,而AI滲透電腦係統的能力可以遠超人類的想象。。。。至於AI破解由多字節密鑰加密的字符密碼的能力,人類更不能輕易低估。
讀到這裏很多熟悉戰爭片的讀者會說,先進的遠程打擊武器尤其是戰略性武器在發射過程一定會有很多需要人為操作的步驟,所以即便發射裝置全都聯網也不要緊,隻要在人為的那一步把好關即可。。。。但是,這裏有個問題:與二戰片中需要有人用力拉下某個手閘才能從物理上連上電路的情節不同,今天的很多時候所謂的人為地摁下按鈕不過是給已經連好的電路發一個電信號而已。。。。因此,隻要底層的物理通路存在,從邏輯上說存在著通過製造假信號繞過相關人為步驟的可能性;與此同時,過去幾十年裏人類的高科技發展史表明,任何複雜的電信號係統都可能存在各種錯誤,而錯誤的種類可以是多式多樣,包括人為故意的錯誤。。。。所以隻要AI足夠發達就有可能利用包括底層線路在內的整個係統中的錯誤來繞過人為地摁下按鈕這一步。
不僅如此,當AI實質性接管一個武器發射係統的時候,它甚至可以讓任何預設的人為操作功能失效,就如同人們在現實生活中已經見識過的惡意軟件可以如何接管人們對於日常電器的操作一樣。
或許有人會說,這好辦,我們隻要故意在線路中設置一些物理斷點來要求人為操作就能避免AI遠超控製整個發射係統。。。。問題是,這說起來容易,做起來其實沒那麽簡單。。。。我這裏所說的“沒那麽簡單”指的不是技術性的難度而是過人性關的難度。。。。說到底,今天圍繞AI所存在的各種潛在威脅的源頭是人性的貪婪與彼此之間的不信任。。。。與需要人為地接通物理連線相比,對已有的電路發送一個電信號顯然效率要高很多。。。。相應地,人們很容易會想到不論是在毫秒必爭的股市賽道上還是在分秒見勝負的物理戰場上,競爭雙方中用電信號的一方一定會比需要物理連接更具勝算,所以人們大概率地不會想要去回到需要實時地人為連接線路的水平。。。。另外,即便從今天開始人們就在某些關鍵的線路上設定物理斷點,我們也不要忘了人為的日常操作中出錯的機會也很大,而AI並不需要控製所有的武器發射裝置來發動一場毀滅性的戰爭。。。。
換言之,今天人類已經為AI構築了隻要它足夠發達就具有可以調動已經以某種方式聯網的武器庫的物理基礎。。。。問題隻是是否可能在哪一天,在人類沒有預見到的時刻,AI會給人類來一個再也沒機會糾正更沒有機會後悔的“驚喜”,而這種可能性的概率恐怕不為零。。。。
結束語
AI可以心安理得地違背人類給它設定的禁令這一點著實出乎我之前的想象。在《The Red Hat》【[2]】一書的Epilogue中我還煞費苦心地設計如何可以讓AI機器人背叛人類。沒想到,AI背叛人類其實可以就那麽簡單直率。
當很多人為AI表現出的破壞力而讚歎時,我們應該清醒地意識到,AI之所以具備極大的破壞潛力不是因為AI已經有多了不起,而是因為人類已經為AI預備好了可以對世界上的環境進行摧毀性的破壞的條件。這就好比人們將一把上了堂的手槍交給一個不諳世事的頑童一樣。。。。
是人類的狂熱讓AI的發展開始走火入魔。。。。
當然,本文的討論隻是要向世人表明今天人們在AI發展中表現出的盲目狂熱已經為AI日後造成重大災難預備了相當可怕的物理基礎,而不是要嚇唬大家說明天一早就一定會有某個AI接管某個軍事強權的武器庫來發動戰爭。。。。但另一方麵,我們也有必要清醒地看到AI盲目發展所具有的潛在威脅。這裏的一個要點是:AI是站在幫助實現人性之貪婪的這一邊的,所以任何對AI之威脅的對抗實際是在對抗人性之貪婪,其難度相信大家都應該不陌生。。。。
【[1]】自說自話的總裁 (2026年3月)YouTube. https://youtu.be/_vXNduzj3LE?si=59W4UyzsJ1ltrYtB
【[2]】Dai, R. (2018). The Red Hat. url: https://www.academia.edu/127169086/The_Red_Hat