OPENAI 本周悄悄地從其使用政策中刪除了明確禁止將其技術用於軍事目的的措辭,該政策旨在規定如何使用 ChatGPT 等強大且非常流行的工具。
截至 1 月 10 日,OpenAI 的“使用政策”頁麵其中包括禁止“具有高人身傷害風險的活動”,特別是“武器開發”和“軍事和戰爭”。禁止軍事應用的明確措辭似乎排除了國防部或任何其他國家軍隊的任何官方且極其有利可圖的使用。新政策保留了不得“使用我們的服務傷害自己或他人”的禁令,並以“開發或使用武器”為例,但對“軍事和戰爭”使用的全麵禁令已經消失。
此次未經宣布的修訂是政策頁麵重大重寫的一部分,該公司表示,其目的是使文檔“更清晰”和“更具可讀性”,其中包括許多其他實質性的語言和格式更改。
OpenAI 發言人 Niko Felix 在給 The Intercept 的電子郵件中表示:“我們的目標是創建一套易於記憶和應用的通用原則,特別是我們的工具現在已被全球日常用戶使用,他們現在也可以構建 GPT。” “像‘不傷害他人’這樣的原則很廣泛,但很容易掌握,並且在許多情況下都具有相關性。此外,我們還特別引用了武器和對他人造成的傷害作為明顯的例子。”
菲利克斯拒絕透露模糊的“傷害”禁令是否涵蓋所有軍事用途,他寫道:“任何使用我們技術的行為,包括軍隊,‘[開發]或[使用]武器、[傷害]他人或[破壞]財產,或[從事]違反任何服務或係統安全的未經授權的活動,'是不允許的。”
網絡安全公司 Trail of Bits 的工程總監、機器學習和自主係統安全專家 Heidy Khlaaf 表示:“OpenAI 非常清楚在軍事應用中使用其技術和服務可能產生的風險和危害。” ,引用2022 年的一篇論文她與 OpenAI 研究人員合著,特別標記了軍事用途的風險。克拉夫補充說,新政策似乎更強調合法性而不是安全性。她說:“這兩項政策之間存在明顯區別,前者明確規定禁止武器開發、軍事和戰爭,而後者則強調靈活性和遵守法律。” “開發武器以及開展與軍事和戰爭有關的活動在不同程度上是合法的。對人工智能安全的潛在影響是巨大的。鑒於大語言模型(LLM)中存在眾所周知的偏見和幻覺,並且總體上缺乏準確性,它們在軍事戰爭中的使用隻會導致不精確和有偏見的行動,可能會加劇傷害和平民傷亡。”
該政策的現實後果尚不清楚。去年,The Intercept 報道稱,麵對五角大樓和美國情報界日益濃厚的興趣, OpenAI不願透露是否會執行自己明確的“軍事和戰爭”禁令。
AI Now 董事總經理莎拉·邁爾斯·韋斯特 (Sarah Myers West) 表示:“鑒於人工智能係統在加沙針對平民,現在是做出從 OpenAI 的允許使用政策中刪除‘軍事和戰爭’一詞的決定的重要時刻。”研究所和聯邦貿易委員會前人工智能政策分析師。“政策中的語言仍然含糊不清,並引發了人們對 OpenAI 打算如何執行的疑問。”
盡管目前 OpenAI 提供的任何產品都無法用於直接殺人,無論是軍事上還是其他方式——ChatGPT 無法操縱無人機或發射導彈——任何軍隊都在從事殺人業務,或者至少保持殺人能力。像 ChatGPT 這樣的法學碩士可以增強許多與殺戮相關的任務,例如編寫代碼或處理采購命令。對 OpenAI 提供的由 ChatGPT 驅動的定製機器人的審查表明,美國軍事人員已經 使用加快文書工作的技術。直接協助美國作戰的國家地理空間情報局已公開猜測使用 ChatGPT 來協助其人類分析師。即使 OpenAI 工具被部分軍隊部署用於非直接暴力目的,它們仍然會幫助一個主要目的是殺傷力的機構。
應 The Intercept 要求審查政策變化的專家表示,OpenAI 似乎正在悄悄削弱其反對與軍隊開展業務的立場。“我可以想象,從‘軍事和戰爭’到‘武器’的轉變為 OpenAI 提供了支持作戰基礎設施的空間,隻要該應用程序不直接涉及狹義的武器開發,”名譽教授 Lucy Suchman 說道。蘭卡斯特大學科學技術人類學博士。“當然,我認為你可以為作戰平台做出貢獻,同時聲稱不參與武器的開發或使用,這種想法是不誠實的,將武器從社會技術係統中移除——包括指揮和控製基礎設施——它是社會技術係統的一部分”。蘇奇曼是 20 世紀 70 年代以來的人工智能學者,也是國際機器人武器控製委員會成員,他補充道:“新政策文件通過專門關注武器來回避軍事承包和作戰行動問題,這似乎是合理的。”
Suchman 和 Myers West 都指出了 OpenAI 與主要國防承包商微軟的密切合作關係,微軟迄今為止已向這家法學碩士製造商投資了 130 億美元,並轉售該公司的軟件工具。
這些變化發生之際,世界各地的軍隊都渴望采用機器學習技術來獲得優勢。五角大樓仍在試探性地探索如何使用 ChatGPT 或其他大型語言模型,這是一種可以快速、靈巧地生成複雜文本輸出的軟件工具。法學碩士接受大量書籍、文章和其他網絡數據的培訓,以便模擬人類對用戶提示的反應。盡管像 ChatGPT 這樣的法學碩士的輸出通常非常令人信服,但它們是針對連貫性而不是對現實的牢固把握而優化的,並且經常遭受所謂的幻覺,從而使準確性和事實性成為問題。盡管如此,法學碩士快速攝取文本並快速輸出分析(或至少是分析的模擬)的能力使他們自然適合數據密集的國防部。
盡管美國軍方領導層的一些人表達了擔憂鑒於法學碩士傾向於插入明顯的事實錯誤或其他扭曲,以及使用 ChatGPT 分析機密或其他敏感數據可能帶來的安全風險,五角大樓仍然普遍渴望采用人工智能工具。國防部副部長凱瑟琳·希克斯 (Kathleen Hicks) 在 11 月的講話中表示人工智能是“我和勞埃德·奧斯汀部長從第一天起就一直在推動的以作戰人員為中心的全麵創新方法的關鍵部分”,盡管她警告說,目前的大多數產品“在技術上還不夠成熟,無法滿足要求”遵守我們的人工智能道德原則。”
去年,五角大樓可信人工智能和自主事務首席主任金伯利·薩布隆 (Kimberly Sablon)表示在夏威夷舉行的一次會議上,“在我們如何利用 [ChatGPT] 等大型語言模型來破壞整個部門的關鍵功能方麵,有很多好處。”
(穀歌翻譯:OPENAI QUIETLY DELETES BAN ON USING CHATGPT FOR “MILITARY AND WARFARE”)