OpenAI首席科學家蘇茨克韋爾:人工智能“謹慎派”決意出走

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

德國《時代》周報網站5月15日刊登題為《曾想保護我們免受超級人工智能侵害的人》的文章,作者是蒂圖斯·布洛梅。文章摘編如下:

伊利亞·蘇茨克韋爾在一場可能是近年來最重要的科技權力鬥爭中扮演了重要角色,從那至今僅過了半年。

2023年11月,開放人工智能研究中心(OpenAI)聯合創始人、首席執行官以及代表性人物薩姆·奧爾特曼出人意料地被董事會解雇。對此負有責任的董事會成員中就有蘇茨克韋爾。經過數天反複以及員工和投資者反對,奧爾特曼又回來了。

“政變”後淡出

5月14日,這家聊天生成預訓練轉換器(ChatGPT)背後的企業宣布,首席科學家蘇茨克韋爾將要離開。這對許多人來說並不那麽意外:首席科學家和首席執行官雖然事後公開和好,但從那以後,蘇茨克韋爾的職位一直不穩。他基本退出公眾視野。

14日晚上,蘇茨克韋爾在社交平台X上發文:“我已經決定離開OpenAI。”他正在籌備一個“對自己而言意義重大”的項目。奧爾特曼在自己的動態中寫道,感謝蘇茨克韋爾所做的一切。他會堅決“完成兩人共同開創的使命”。

不過,我們不確定這是否還是這兩位前同事追求的那個使命。據稱,蘇茨克韋爾參與去年11月那場“政變”的主要原因之一,是他擔心奧爾特曼過於激進和輕率地對待人工智能這一強大的技術。後者此前一直都高歌猛進,推動著新人工智能產品的開發和發布。

據稱,蘇茨克韋爾本人更為謹慎。他在英國《衛報》去年的一部紀錄片中說,自己堅信人工智能可以解決人類當前的所有問題,但這項技術也將製造出新問題:惡劣的網絡攻擊、全自動武器和假新聞泛濫。如果一種比人類更聰明、更有能力的超級人工智能——通用人工智能(AGI)——被以錯誤的方式開發出來,它可能會“將自己的生存置於所有其他事物之上”,尤其是置於我們人類的生存之上。

OpenAI在2015年成立時本來是為了限製此類風險。這家最初的非營利組織自稱其“最重要的托管義務”麵向“全人類”,並希望以負責任、審慎的方式開發人工智能。即使2019年單獨成立部分以利潤為導向的子公司開放人工智能研究中心全球公司(OpenAI Global),以便更高效地募集投資,這一使命也應延續。董事會的任務是監督執行情況,並在必要時進行幹預。

2023年11月,當部分董事會成員執行上述任務,計劃撤換在他們看來明顯過於迎合市場的奧爾特曼時,主要投資者微軟等相關方表示反對。最終,奧爾特曼回歸,權力也更大了。這讓人清醒地認識到,董事會早已在很大程度上失去對這家以利潤為導向的子公司及其首席執行官的控製。

如果說迄今為止OpenAI仍被期望繼續完成其最初使命的殘餘部分,那麽隨著蘇茨克韋爾的離開,“謹慎派”最終將淡入幕後。簡·萊克也同時在社交平台X上公開宣布辭職。萊克和蘇茨克韋爾曾經是OpenAI“超級對齊”團隊的聯合領導人。在人工智能領域,“對齊”指的是嚐試用正確的價值觀(即人類價值觀)對人工智能進行編程。這樣做的目的是為了避免可能出現科幻小說中惡意機器帶來的那種世界末日場景。OpenAI的20%可用算力被用於該項目。然而現在,蘇茨克韋爾和萊克都被去年11月站在奧爾特曼一邊的員工所取代。現在,奧爾特曼很可能已經最終控製了公司,公司的優先事項很可能將繼續轉向商業。

商業擊敗理想主義?

奧爾特曼的計劃很宏大。

美國《華爾街日報》今年2月報道稱,奧爾特曼正在尋求總額7萬億美元(不是70億美元!)的投資來生產AGI及其所需的算力。顯然,錢從哪裏來並不那麽重要。報道稱,奧爾特曼還與阿聯酋溝通。他似乎非常專注於以任何可能的方式開發AGI。他最近在斯坦福大學的一次演講中表示,他並不關心“我們是否每年燒掉5億美元、50億美元還是500億美元”。他說,這是值得的,因為這將創造AGI。盡管奧爾特曼作出保證,但在人工智能領域,超級智能的可能性仍存在很大爭議。

蘇茨克韋爾離開OpenAI可能意味著奧爾特曼將更積極地追求他的目標。然而,這並不意味著人工智能的發展完全由市場來決定。正如奧爾特曼與阿拉酋的對話以及他的其他評論所表明的那樣,自由市場隻是一種可能的資本來源:民族國家最終可能是唯一擁有足夠資源為未來幾代人工智能提供資金的參與者。根據美國人工智能研究所的一份報告,人工智能已經成為新的全球產業政策的重要組成部分。

美國和歐盟都啟動了重大投資計劃,以促進本國對人工智能發展至關重要的半導體芯片的發展——算力仍然是地緣政治上敏感的瓶頸,因為世界上最好的芯片主要是在中國台灣製造的。印度、南非和阿聯酋等國也製訂了自己的投資計劃和法規,以促進本國技術的發展。包括穀歌前首席執行官埃裏克·施密特在內的一些人甚至認為,美國和中國之間正在進行人工智能軍備競賽。因此,市場和民族國家可以在許多地方同心協力。這一點也可能變得很重要,因為目前似乎還沒有一家純粹的人工智能公司為這項技術找到真正有利可圖的商業模式。

對奧爾特曼來說,蘇茨克韋爾的謹慎似乎主要有商業利用價值。無論如何,蘇茨克韋爾經常遭到這樣的指責:他對超級智能的力量發出警告,主要是為了監管人工智能並讓競爭對手更難迎頭趕上,或者是為了讓政客們關注遙遠的世界末日場景,而不是失業和人工智能產生的虛假信息等實際問題。如果批評者說的是準確的,那麽商業早已擊敗了理想主義。

這並不意味著從現在起一切都會以指數級的速度變快:在訓練數據、算力和能源供應方麵仍存在嚴重瓶頸,可能會延緩這一進程。此外,AGI能否誕生也仍然是個未知數。不過,在蘇茨克韋爾離開後,這些物質障礙似乎成為人工智能發展的最後障礙,至少在OpenAI是如此。否則至少從現在起,座右銘將是:勇往直前,而不是小心翼翼。