他的死亡再次引發 人們對人工智能領域的反思。 近日,一則消息掀起了科技圈的風浪:26歲的美國人工智能公司OpenAI前研究員蘇奇爾·巴拉吉自殺身亡。 巴拉吉在OpenAI工作了近4年。生前,他揭露了OpenAI在訓練其語言模型過程中存在可能違反美國版權法的行為,因此成為備受關注的“吹哨人”。 不僅如此,他還公開表達了對OpenAI的核心產品ChatGPT等在道德層麵和行業生態方麵的深切擔憂。 如今,巴拉吉突然去世。雖然警方表示他大概率是自殺,但這無疑引發了人們對人工智能領域的反思。 毅然辭職 巴拉吉出生於1998年,是一名印度裔美國人,從小在加州長大。 在他上高中時,英國的人工智能公司深度思維(DeepMind)受到關注。該公司在人工智能領域有諸多突破性的研究成果,其中最為人所知的就是利用深度強化學習技術,訓練AI玩電子遊戲。 這深深吸引了巴拉吉。高中畢業後,他開始研究深度思維公司開發人工智能的底層邏輯——神經網絡數學係統。 其間,他展現出對計算機科學的濃厚興趣與天賦。在上大學時,他便選擇了熱愛的方向——加州大學伯克利分校計算機科學專業。 彼時,巴拉吉對人工智能的發展抱有很積極的態度,認為AI將會在醫療、抗衰等領域,幫助人們解決難題。 懷揣著早日踏入行業的心願,巴拉吉四處尋找機會,先後在OpenAI和Scale AI進行實習,積累了不少經驗。 畢業後,巴拉吉正式成為OpenAI的一名員工,在工作中與其他專業人員一起,深度探索如何訓練AI模型,讓其更好地形成邏輯思維。 隨著研究越來越深入,巴拉吉意識到,人工智能快速發展的背後,蘊藏著一係列不合理的問題,與他的期待截然相反。 於是,在工作4年後,他毅然選擇辭職。之後不久,他接受了《紐約時報》的采訪,表達了自己辭職的原因和擔憂。 巴拉吉認為,ChatGPT和其他類似的聊天機器人會破壞那些創建數字數據、內容的個人或組織的商業未來,而這些數據和內容已被廣泛用於訓練人工智能,“人工智能這項技術給社會帶來的危害將大於益處”。 就在這番言論引發外界熱烈討論之時,傳來了巴拉吉的死訊。美國消費者新聞與商業頻道報道,當地時間11月26日,巴拉吉被發現在他位於舊金山的公寓內自殺身亡。 隨後,舊金山首席法醫辦公室執行主任在一封電子郵件中證實了這一消息。 美國舊金山警察局稱,11月26日下午,警察被叫到紐約布坎南街的一間公寓進行健康檢查。在檢查中,他們發現一名成年男性(即巴拉吉)已經死亡,初步調查並未發現任何他殺證據。 “吹哨人” 消息傳出後,不少網友在社交媒體上表示哀悼和惋惜。正與OpenAI打官司的全球首富馬斯克轉發了相關報道,並配文:“唔(Hmm)。” ·馬斯克轉發巴拉吉的相關報道。 OpenAI公司的發言人對此表示:“今天得知這一令人難以置信的噩耗,我們感到非常悲痛,在這一艱難時刻,我們向巴拉吉的親人表示同情。” 不過,一位巴拉吉的朋友對此事表示懷疑,“他很聰明,絕不像是會自殺的人”。 巴拉吉之死之所以引發圈內關注,不僅是因為《紐約時報》的采訪,更是因為他在社交媒體上發布的控訴文。 在這篇萬字長文中,巴拉吉基於自己對業務的了解和研究,針對OpenAI備受爭議的“先複製,後請求原諒”的版權做法,進行了揭露和批判。 巴拉吉指出,訓練大型語言模型需要依靠海量的文本數據來進行學習與生成。OpenAI未經許可就抓取大量書籍、文章和網站的內容來訓練ChatGPT,其中很多數據都來自於網絡上受版權保護的內容。 巴拉吉稱,OpenAI在使用這些未授權的材料訓練模型時,沒有充分遵循“合理使用原則”,涉嫌侵犯美國的版權法。 他在文章中引用了美國1976年《版權法》的相關規定,作出解釋。 “合理使用”的判斷標準通常有以下幾條:非營利性教育使用通常更容易被認定為合理使用;事實性作品在合理使用中往往更具法律保護;使用較少的部分可能更容易被認定為合理使用;如果某一使用會取代原作品的市場,通常不被視為合理使用。 基於以上標準,巴拉吉進行了論證,並得出結論——隨著AI模型的能力越來越強大,其輸出的內容極有可能會與原始版權作品形成競爭關係。 例如,當用戶需要一篇文章時,ChatGPT生成的內容可能會替代原創內容被使用,這將會擠壓創作者的生存空間。 ·巴拉吉的相關論證。 因為上述披露,巴拉吉被稱為針對OpenAI的“吹哨人”。 事實上,巴拉吉本人並不想針對OpenAI,而是希望警醒整個生成式AI行業。他在文章中也強調,“希望這不要被解讀為對OpenAI本身的批評”。 很顯然,OpenAI不這麽認為。此文發出後,OpenAI立即向巴拉吉發出了起訴函。 就在收到起訴函的第二天,巴拉吉便發生悲劇。這距離他發出指控,還不到3個月。 OpenAI訴訟纏身 因為版權等問題,OpenAI近兩年早已訴訟纏身。 2023年6月,作家保羅·特倫布萊和莫娜·阿瓦德對OpenAI提起集體訴訟,稱ChatGPT未經授權使用其作品內容訓練模型,違反聯邦版權法;7月,喜劇演員莎拉·西爾弗曼等也起訴OpenAI,稱未授權該公司使用其作品訓練AI模型。 ·莎拉·西爾弗曼。 《紐約時報》曾於2023年底起訴OpenAI和微軟公司,指控這兩家企業未經授權使用該媒體數以百萬計的文章訓練人工智能聊天機器人。 OpenAI當時做出過回應,在公司網站發布博客《OpenAI與新聞業》稱:我們支持新聞業,與新聞機構合作,並認為《紐約時報》的訴訟毫無根據。 OpenAI表示,已經與數十家新聞機構以及新聞、媒體聯盟等領先的行業組織會麵,探討機會,討論他們的擔憂,並提供解決方案,還聲稱“利用公開的互聯網資料訓練人工智能模型,屬於合理使用”。 針對AI侵權問題,人工智能和數據合規律師胡穎涵對環球人物記者表示,創作者將作品發布在網站時,可以同步刊登版權說明,申明未經授權不得商用,還可以利用技術手段進行網絡內容檢測,及時發現潛在侵權行為。 除了外部訴訟,OpenAI也麵臨離職潮。不少員工離職後,公開表達了對OpenAI內部安全文化的擔憂。 今年5月,OpenAI的一名AI策略研究員表示,由於感受到OpenAI存在巨大安全風險,她決定辭職。之後,OpenAI首席科學家伊爾亞正式宣布,他將離開公司去追求“下一個計劃”。 OpenAI此前就被曝出,公司員工離職需簽封口協議,“不簽字就會影響股權”。 據員工披露,OpenAI在安全問題決策上不夠透明,且缺乏對決策人的問責,同時公司內部對不同意見的包容度很低,可能導致風險的識別和管理被忽視。 根據美國《吹哨人保護法案》規定,聯邦雇員在揭露組織內欺詐、非法或不當行為時遭到報複,如被保護對象因舉報而受到降職、解雇等歧視性對待時,可向特別顧問辦公室申訴,該辦公室會展開調查並提供相應保護。 即便如此,有舉報人向美國證券交易委員會投訴,OpenAI非法禁止員工向監管機構披露其技術可能對人類構成的嚴重風險,否則將受到離職、放棄補償金等處罰。 這對那些想要表達擔憂的員工形成了很強的威懾。 今年,OpenAI和穀歌旗下“深層思維”公司的13名現職員及前員工發表聯名公開信,指出一般的法律保護對人工智能行業“吹哨人”而言“不夠”,因為不少引人擔憂的風險在法律監管方麵仍屬空白。 ·OpenAI和穀歌旗下“深層思維”公司的13名現職員及前員工發表聯名公開信。 其實,AI行業的潛在風險早已引起多國專家的關注。早前,英國網絡科學專家溫迪·霍爾與其他31位專家就在聯合國機構發表報告,其中提到,人工智能技術應受到監管,如製定標準章程、建立監管機製等。 隻有創作者、從業人員和政府機構一起努力,促進技術健康發展,才能真正避免下一場悲劇的發生。