2016 (58)
2017 (64)
2018 (55)
2020 (123)
2021 (83)
2022 (83)
2023 (75)
今天,包括馬斯克在內的1千多名頂級科技巨頭聯署要求人工智能(AI)研發暫停6個月,不要超過目前GPT-4 的水平, 他們的公開信內容如下:
廣泛的研究表明,包括得到頂級 AI實驗室的認可,具有與人類競爭智能的人工智能(AI)係統可能對社會和人類造成深遠的危險。正如廣泛認可的 Asilomar AI 原則中所述,高級 AI 可能代表地球生命史上的一項深刻變化,所以應以相應的關懷和資源 (對其)進行規劃和管理。不幸的是,這種級別的規劃和管理(目前)並沒有發生。盡管最近幾個月來,人工智能實驗室陷入了一場失控的競賽,(大家目的在)開發和部署更強大的數字思維,沒有人能夠(甚至他們的創造者)——都無法理解, 預測,或可靠地控製。
當代人工智能係統在一般任務上已變得與人類具有競爭力,我們必須捫心自問:(如果沒有規則控製),我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們應該讓所有的工作自動化嗎?包括已經是令人滿意的工作嗎?我們是否應該發展最終可能從數量上即智力上超過我們(人類),並取代我們的非人類思維?我們應該冒險地失去對我們文明的控製嗎?不得將此類決定委托給未經選舉而產生的技術領導者。隻有當我們確信它們的影響是積極的,並且它們的風險是可控的時候,才應該開發強大的人工智能係統。這種信心必須有充分的理由,並隨著AI係統潛在影響的大小而隨之增加。OpenAI 最近關於通用人工智能的聲明指出,“在某些時候,在開始訓練未來係統之前進行獨立審查可能很重要,並且用最重要的努力來同意限製用於創建新的計算模式的增長速度。” 我們同意(這一點)。(那個“某些時候”)就是現在。
因此,我們呼籲所有 AI 實驗室立即暫停至少 6 個月的訓練那些比 GPT-4 更強大的 AI 係統。這種暫停應該是公開的和可驗證的,並且包括所有關鍵參與者(或AI實驗室)。如果不能迅速實施這種暫停,政府就應介入並(強迫)暫停。
人工智能實驗室和獨立專家應該利用這次暫停,共同開發和實施一套用於高級人工智能設計和開發的共享安全協議,並由獨立的外部專家進行嚴格審計和監督。這些協議應確保遵守它們的係統無可置疑地是安全的。這並不意味著總體上去暫停 AI 開發,而隻是從危險的競賽中倒退一步,不至於發展到更強大的,新興功能,但不可預測的黑箱模型在人類可控製前就已開發出來。
人工智能研究和開發應該重新聚焦於使當今強大的、最先進的係統更加準確、安全、可解釋、透明、穩健、一致、值得信賴和忠誠。
與此同時,AI 開發人員必須與政策製定者合作,以加快開發強有力的 AI 監督管理係統。這些至少應包括:專門負責 AI 的新的,有能力的監管機構;監督和跟蹤高性能人工智能係統,和它們擁有的大量計算能力;出處和水印係統,以幫助區分真實與合成並跟蹤模型泄漏;強大的審計和認證生態係統;人工智能造成的傷害的責任;為技術人工智能安全研究提供強大的公共資金;以及資源充足的機構來應對人工智能將造成的巨大的經濟和政治破壞(尤其是對民主的破壞)。
人類可以享受人工智能帶來的繁榮未來。成功創建強大的 AI 係統後,我們現在可以享受“AI 之夏”,收獲回報,設計這些係統以造福所有人,並為社會提供適應的機會。社會已經暫停其他可能對社會造成災難性影響的技術。我們可以在這裏這樣做。讓我們享受一個漫長的 AI 夏天,而不是毫無準備地陷入秋天。
擔心小艾危及人類屬於杞人憂天。 舉個簡單例子, 在可見的將來小艾不可能打敗數學家。 數學機器證明研究了幾十年毫無頭緒, 那些程序猿要是能在這問題上超越專家就可以拿數學大獎了。
對這種全新的AI技術,就應該放出籠子,讓所有人用,在所有場景用,隻有這樣,才能得到反饋,真正發現各種可能性,並找到對策。這不是能幹想出來的。況且,AI的負作用,必須靠更好的AI來解決。
不管美國怎樣,中國AI開發絕不會停,美國停擺,必將把優勢讓給他人。
不要在潑洗澡水時,做把小孩一起潑出去的蠢事。