2025年3月21日,美國總統川普宣布授予波音公司生產美國空軍“下一代空中優勢”戰鬥機即第六代戰機F-47項目合同。F-47仍以載人駕駛為核心,但美空軍指出“人類飛行員的角色將從操控者變為指揮者”。F-47的無人機僚機不僅能執行危險任務,還能通過人工智能(AI)自主決策,甚至可在通訊中斷時獨立作戰。美空軍官員直言, F-47既可能是人類飛行員駕駛戰機的“絕唱”,也可能成為無人化戰爭的“序章”。
隨著AI技術的迅猛發展,其在軍事領域的應用正以前所未有的速度推進,尤其是AI武器的開發,已成為全球關注的焦點。從自主無人機到智能導彈係統,AI正在重塑戰爭形態。然而,這一技術革命不僅帶來了軍事戰略的顛覆,也引發了深刻的倫理和社會責任爭議。
AI武器的核心在於其自主性,即通過機器學習、大數據分析和計算機視覺,使武器係統能夠獨立完成目標識別、策略製定和任務執行。美國國防科技公司安杜裏爾(Anduril Industries)是這一領域的佼佼者。其產品涵蓋無人機係統、反無人機係統、自主AI監視係統以及集成指揮控製的AI作戰平台,覆蓋地麵、空中和水下全方位作戰需求。
例如,安杜裏爾的“Ghost X”幽靈無人機是一種小型、模塊化的無人作戰平台,不受天氣和環境限製,搭載AI驅動的機器學習和計算機視覺算法,可自主識別並跟蹤目標。它能在無線電靜默狀態下運行,通過機載攝像頭為操作員提供實時圖像,特別適合為巡航導彈定位敵方目標。多個“Ghost X”無人機還能通過空中互聯共享數據,形成高效的偵察網絡。此外,安杜裏爾的自主進攻型無人機“Barracuda-500”(2025年3月公開測試成功)具備垂直發射、自主飛行和精準打擊能力,其模塊化設計可搭載不同設備,執行多樣化任務,體積適配標準集裝箱,便於快速部署。
在防禦領域,安杜裏爾的反無人機係統同樣令人矚目。該係統通過“哨兵塔”雷達實現自主監視,識別並跟蹤入侵無人機,隨後由人類安全員決定是否發起打擊。其攔截器以高速撞擊方式摧毀目標,結合電子幹擾技術,打擊距離更遠,且不受信號幹擾或惡劣天氣影響,效率極高。此外,“Roadrunner”攔截係統專為對抗大型無人機和巡航導彈設計,具備垂直起降、可重複使用、最高時速超320公裏的特點。通過AI視覺技術定位目標,一次可發射多枚攔截器,若其中一枚命中,其餘攔截器可自主返航,大幅降低作戰成本,其小型化與機動性遠超傳統反導係統。
2024年12月,OpenAI宣布與安杜裏爾合作,將其先進AI大模型整合到反無人機係統中,旨在提升實時威脅檢測與響應能力。這一合作標誌著OpenAI從禁止軍事用途轉向有限開放,引發了全球對AI武器化的進一步關注。
AI武器的開發與部署帶來了前所未有的倫理挑戰。首先,自主武器的“決策權”模糊了責任歸屬。如果一台AI無人機誤炸平民,誰該負責?是算法設計者、指揮官,還是製造商?傳統戰爭中,人類直接操控武器,責任鏈清晰;而AI武器的自主性讓這一鏈條變得模糊,可能導致問責真空。
其次,AI係統的可靠性令人擔憂。盡管技術進步顯著,但算法偏差、數據缺陷或不可預測的“黑箱”行為可能引發災難性後果。例如,2023年美國空軍模擬測試中,一台AI無人機因誤判任務優先級從而“殺死”了虛擬操作員,凸顯了AI在複雜戰場環境中可能失控的風險。安杜裏爾的係統雖強調人類監督,但在高強度作戰中,操作員可能因時間壓力過度依賴AI,削弱實際控製能力。
此外,AI武器的擴散加劇了全球安全隱患。小型化、低成本的特性使其更容易被非國家行為體(如恐怖組織)獲取。一旦技術泄露或被逆向工程,可能引發不可控的軍備競賽。類似核武器的“相互威懾”邏輯也許會重演,而且AI武器的隱秘性與快速部署能力使其更難監管。
AI武器的部署甚至可能改變戰爭的本質。傳統戰爭中,士兵的生命風險促使決策者謹慎行事。而無人化、智能化武器降低了己方人員傷亡門檻,可能使軍事衝突更頻繁,甚至將戰爭“遊戲化”。2024年烏克蘭戰場上,廉價無人機的廣泛使用已顯示這一趨勢,AI的加入或將進一步放大這一效應。
AI武器的快速發展不僅關乎技術本身,更是對人類社會責任的考驗。OpenAI首席執行官薩姆·奧特曼(Sam Altman)表示,與安杜裏爾的合作旨在保護美國軍人並確保技術符合“民主價值觀”。然而,這一說辭引發爭議:當AI被用於軍事目的時,是否仍能堅守“造福全人類”的初衷?
麵對AI武器的倫理與社會挑戰,國際社會尚未形成有效規範。雖然聯合國曾討論《特定常規武器公約》(CCW)框架下的“致命性自主武器係統”(LAWS)禁令,但大國間的分歧使得進展緩慢。美國、俄羅斯和中國等技術領先國家均加大軍用AI投資,據報道,美國五角大樓截至2024年底已推進超800個AI相關項目,並計劃2026年前小規模部署自主AI武器。與此同時,其他國家可能效仿,形成“AI軍備競賽”,重現核武器擴散的曆史。
未來戰爭或將成為AI之間的博弈,不同武器係統將體現不同AI技術的較量。然而,AI作為“人性放大器”,可能在技術驅動下對目標實施極端打擊。正如上世紀40年代奧本海默因原子彈歎息“現在,我成了死神,世界的毀滅者”,如今的AI武器或許是我們這一代的“奧本海默時刻”。與核武器不同,AI武器的“按鈕”可能掌握在一台無法理解人類情感、無法做出真正人性化判斷的機器手中,其潛在破壞力可能遠超預期。
AI武器的崛起不可逆轉,但其發展不應脫離倫理約束與社會責任。各國需加快製定全球性規則,確保AI武器的研發與使用透明、可控,並納入公眾監督。企業如OpenAI和安杜裏爾應承擔更大社會責任,公開技術應用邊界,避免淪為單純的“戰爭工具”供應商。唯有在技術進步與人類價值觀之間找到平衡,AI才能真正服務於人類和平而非人類毀滅。