時至今日,誰還記得創造AI不是為了“替代”人?

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數



【導讀】近日,微軟正與OpenAI進行140億美元的投資股權談判。股權分配是OpenAI從非盈利機構轉型成為盈利公司的關鍵,兩者的整合引發了外界對人工智能領域新一輪壟斷趨勢的關注。在重資本的加持下,通用式人工智能的落地日益凸顯出消費主義的麵向。那麽,我們該如何把握人工智能發展背後的資本幻象呢?

本文指出,目前流行的、以內容生產為主的生成式人工智能技術營造出來的盛景,可能是一套由資本塑造出來的“狂想曲”。OpenAI(以及背後的金主微軟)用ChatGPT和Sora來向世人展示生成式人工智能的奇跡,是一種概念證明,就像時裝秀一樣:這種展示“不會顯示龐大的機器,沒有人類員工,沒有資本投資,沒有碳足跡,而隻有一個具有超凡脫俗技能的基於抽象規則的係統。魔法和奇跡的敘事在人工智能的曆史中反複出現,將聚光燈打在速度、效率和計算推理的壯觀展示周圍”。即便生成式人工智能真正落地,也不過指向一個人類被機器取代,充斥著娛樂性的、用來蒙混過關的內容產品的未來。隻有撥開資本創造的迷霧,我們才能看到人工智能豐富的技術可能性。

作者指出,應確保人工智能的發展方向與人類目的對齊,發展那些輔助人類活動的人工智能技術。任由市場主導,則投資者利益驅動下的人工智能技術形態和商業模式,會進一步收割大眾用戶的注意力、時間、金錢和智商,更不用說馬斯克所擔心的人工智能失控所帶來的人類生存危機。但不發展並不意味著遠離風險,而是往往會被美國的數字巨頭所利用和收割,正如歐洲的現實處境那樣。

人工智能不應成為資本的“獨角戲”



當OpenAI於2024年2月15日正式發布文生視頻AI工具Sora時,人們被其視頻效果驚豔了。一個戴墨鏡的高冷女人行走在東京的大街上,周圍霓虹閃爍,行人如織。一切看起來都是那麽真實。而這段視頻的“創作者”是人工智能,人隻是用文字給出了指令:“一位女士行走在夜晚的東京街道上”。我的疑惑是:看不出這個工具有什麽用。當然,這作為概念證明(Proof-of-Concept)是成功的,一下子點燃了人們的興趣,也吸引了投資人的注意。但在新鮮感過去之後,誰會去看一個個一分鍾不到、沒有故事線也沒有感情的短視頻呢?正如之前的元宇宙一樣,如果一種技術無法滿足人們的現實需求,無法形成穩定的商業模式和供需關係,那麽它最終就會淪為炒作的噱頭。今天的Sora遠不像鼓吹者所說的那樣是通用人工智能(AGI)的重大突破,抑或進一步拉大了中美之間在AI領域的技術差距,而隻是一個重資本支撐下不計成本的“暴力計算”的產物,在技術上沒有多少創新,在社會效益上成本大於收益。

從技術上講,作為Sora之基礎的大模型雖然涉及Transformer、Diffusion、GAN等算法創新,但這些創新並不是OpenAI獨自做出的。OpenAI的成功是基於算力、算法和數據的規模升級,是摩爾定律和梅特卡夫定律所揭示的技術的政治經濟效應的表現。換句話說,大模型依靠的是“暴力計算”,即高性能GPU運行千億級參數模型通過海量數據進行預訓練。用OpenAI首席科學家伊利亞·蘇茨克沃的話來說:“如何解決難題?使用大量訓練數據以及一個大型神經網絡。這樣,你可能得到的唯一結果就是成功。”為此,OpenAI的主要投資者微軟投入數億美元資金為OpenAI打造了一套超算係統,由上萬顆單價數萬美元的英偉達A100芯片組成,這套係統為訓練ChatGPT提供了3640PF-days的算力消耗(即假如每秒計算1000萬億次,連續計算3640天)。這個道理行內人都懂,隻是能夠如此燒錢打造“大裝置”,並能夠獲取足夠多的數據供其訓練算法的人很少。

由此可見,大模型訓練是一個燒錢和耗能的遊戲,充滿重資本的味道,一點兒也不節能環保。這時,我們就需要對大模型的商業和社會應用進行一番成本-收益分析,看看它所帶來的收益是否大於成本,以及收益的歸屬和成本的分擔。在進行這種分析的時候,我們應當注意尚未被計入成本的那些外部性,比如實際上由公眾承擔成本的環境損害和係統性風險,以及它可能帶來的好處。大模型能夠帶來的好處似乎是顯而易見的。雖然訓練成本高昂,但一經訓練成功,它就可以產生巨大的生產力,自動化地生產文字、圖像和音視頻內容,比如幫助文字工作者生成文案和文學作品,幫助醫生了解病人的病史和症狀描述並形成診斷和治療方案,幫助老師、科研人員和學生閱讀大量文本並提取關鍵知識點和主要論點,幫助法律職業者審閱法律文件、分析法律問題並形成初步法律意見書,等等。但這些好處本身也可能直接轉化為壞處,因為這些“幫助”都可以變成“替代”。尤其是當普通勞動者、消費者和內容創作者對技術及其部署毫無發言權和影響力的時候。正因如此,AI不隻是技術議題,更是公共議題,技術的發展方向和應用場景是由技術之外的政治、經濟和法律因素決定的。用一本題為《AI需要你》的新書中的話來說:“人工智能不是價值中立的,也不應該是。曆史告訴我們,今天的人工智能科學家和建設者應該帶著意圖和目標前進,而不是擁抱虛假的中立。這一目的應該是致力於和平的,是清醒認識到技術之局限性的,是將服務於公共福祉的項目擺在優先地位的,並且是植根於社會信任與和諧的。”以下將分別討論發展AI的目的(目的決定方向,包括技術和應用的發展方向)、發展AI的成本和收益以及可能的規製路徑。



生成式人工智能的第一種可能未來,是作為資本炒作故事(hype)而煙消雲散,正像之前的區塊鏈和元宇宙一樣。這是最沒有技術和商業模式的創新,最有損中小投資者和消費者的利益,卻最有可能出現的未來。在ChatGPT橫空出世之際,人們還沒從元宇宙熱中走出。然而,熱潮過後留下的是個爛攤子:浪費的資源,收不回的成本,雞肋般的架構設計和戰略布局。到2022年,Meta的元宇宙部門“現實實驗室”在財務年報中上報了137億美元的營業損失

生成式人工智能當然與元宇宙不一樣。元宇宙的發展限度在於,它超出了單一企業(無論何等規模的巨頭)能夠控製的數字基礎設施能力,包括但不限於網絡帶寬。元宇宙模式所傳輸的三位全息影像都是無比龐大的數據集,一旦超出一定規模來部署,必定會導致嚴重的卡頓和延遲,更不用說達到鼓吹者所說的流暢的臨境感。而生成式人工智能僅僅在研發端需要龐大的算力和數據,一旦研發成功,在用戶端則不會占據過多的網絡傳輸和終端算力資源。實際上,我國企業在生成式人工智能的可持續商業模式方麵已經探索出一條可行的道路,那就是麵向企業(B端)市場,比如華為的盤古大模型在氣象預測、工控係統和政務係統中的應用;商湯的日日新大模型係列中麵向醫療係統的“大醫”、麵向汽車和交通行業的“絕影”、麵向城市規劃和空間設計行業的“瓊宇”、麵向製造業和需要進行產品展示的商貿企業的“格物”等。但目前引起媒體和公眾廣泛關注的,恰恰是麵向個人用戶(C端)的文字、音視頻生成類應用,而這一類應用很可能隻是曇花一現。

比如,用過ChatGPT之類的對話式內容生成工具的人都知道,它們生成的“小作文”中充滿了錯誤的引用、編造的法律條文或數據以及似是而非的話術。這些被統稱為“幻覺”的內容混雜在貌似言之成理的內容當中,使得查驗與核實工作變得十分煩瑣,在嚴肅工作中實際上會加重而不是減輕專業人士的負擔,因此不會在這些工作場合得到廣泛使用。它得到生產性使用的場合,反而多是人類的法律和倫理所禁止或至少會做出否定性評價的用法,包括學生用來寫小論文在學業上蒙混過關,媒體或自媒體用來編織真假難辨的假新聞以吸引眼球,需要做應酬性講話或報告的各行業人士用來生成講話內容。Sora這樣的文生視頻工具不僅不會解決上述問題,反而加重了真實性和可靠性查驗的成本,畢竟“有圖有真相”“有視頻有真相”之類過去的真實性判斷方法,麵對這樣的工具已經不起作用了。

但比作為炒作而煙消雲散更糟糕的,是消費主義的生成式人工智能真正落地並得到廣泛使用的情況,我稱之為地獄級噩夢(Hell)。OpenAI(以及背後的金主微軟)用ChatGPT和Sora來向世人展示生成式人工智能的奇跡,是一種概念證明,就像時裝秀一樣:這種展示“不會顯示龐大的機器,沒有人類員工,沒有資本投資,沒有碳足跡,而隻有一個具有超凡脫俗技能的基於抽象規則的係統。魔法和奇跡的敘事在人工智能的曆史中反複出現,將聚光燈打在速度、效率和計算推理的壯觀展示周圍”。我們隻要參觀過任何一個為訓練AI提供支撐的數據中心,了解過大型語言模型的訓練過程,就知道AI也有“沉重的肉身”,有龐大的服務器陣列和“大裝置”,有數以萬計從事著煩瑣枯燥的數據標注、校訂、評估和編輯工作的當代藍領,更不用說程序員了,以及算力係統每運行一秒鍾就會消耗的大量電力和冷卻用水。更不用說它背後極不公平的分配邏輯:即便在所謂“市場主導”的美國,人工智能產業也受到政府的大力資助,“人工智能行業的擴張得到了公共補貼:從國防資金和聯邦研究機構到公共事業和稅收減免,再到從所有使用搜索引擎或在線發布圖像的人身上獲取的數據和無償勞動力。人工智能最初是20世紀的一項重大公共項目,後來被無情地私有化,為金字塔頂端的極少數人帶來了巨大的經濟收益”。可悲的是,被收割的“韭菜”們還不斷驚歎科技巨頭向它們展示的魔法,沉迷於“AI狂想曲”:幻想人工智能係統是脫離實體的大腦,獨立於其創造者、基礎設施和整個世界來吸收和產生知識。

在這個過程中,人類勞動的價值被不斷貶低,淪落到為機器提供輔助性服務的地步。ChatGPT所生成的似是而非的文本和Sora所生成的空洞虛幻的視頻,都受到讚歎,而人類創作的各種內容卻受到百般挑剔或者根本無人問津。這不僅影響到如今在世的所有人,還影響到教育和人類的未來:許多家長現在已經懷疑讓孩子辛苦地學習各類知識到底有什麽意義,畢竟未來大部分工作都不需要人了。雖然了解AI技術及其產業的人都知道這根本不是事實,但行業巨頭們通過魔法展示所營造出的共識性幻想,卻可能導致一個自我實現的預言:青少年可能越來越多地借助AI工具來蒙混過關,在學習知識和訓練技能的過程中投機取巧,這樣人類工作的質量會不斷趨近,並最終低於AI從事同樣工作的質量,然後給了雇主們用機器取代人的理由。

為了避免滑入這個向下沉淪的螺旋,在當下的數字素養教育中應該更多地納入對AI進行人文和社科反思的內容,而不是直接接受行業巨頭們編織的敘事。要讓公眾理解人工智能不是一種客觀、通用或中立的計算技術,不能在沒有人類指導的情況下做出決定。AI係統深深嵌入人類社會的政治經濟結構和法律製度中,由人類的個體、商業組織和政府來決定它們做什麽和怎麽做。雖然AI與其他完全被動的由人類完全控製的工具不同,能夠在與人類互動的過程中學習和自我演進,但它仍然是一種工具,是在人類設定目的的前提下尋找最優手段的工具。因此,我們不能放棄對目的的追問和公開討論,否則我們的命運可能不是被AI控製,而是被掌握AI的人控製。微軟控製下的OpenAI,就是這樣一個有輿論塑造能力的實體。

成功的企業都是善於講故事的企業,公眾很容易被它們標榜的價值所迷惑,因為它們實際上所做的事情對於公眾來說是不透明的。OpenAI對自己的定位是:“我們是一家人工智能研究和部署公司。我們的使命是確保通用人工智能造福全人類。我們正在構建安全且有益的通用人工智能,但如果我們的工作幫助其他人實現這一成果,我們也將認為我們的使命已經完成。”顯然,OpenAI試圖為自己樹立開源、無私並服務於公共利益的“人設”。2015年,OpenAI作為一家非營利性的科研實驗室而注冊成立,一開始,它將自己的宗旨表述為“為每一個人而不是股東創造價值”。為此,它鼓勵所有雇員“發表自己的作品,無論是以論文、博客日誌還是代碼的形式”。這與營利性公司極端重視知識產權和商業秘密的做法截然相反。它還宣布將與全世界共享自己獲得專利的算法。但即使在這個最初的階段,OpenAI也沒有兌現自己的承諾,沒有形成開放的治理結構、民主或合作式的工作機製,也沒有開放數據或允許外部開發者接入和使用研發大模型所需的高成本資源。實際上,它的創始人中隻有埃隆·馬斯克真正信奉開放的宗旨,但他的想法被稱為“馬斯克讓AI自由發展的瘋狂計劃”。在接受《連線》(Wired)記者采訪時,當時的OpenAI主席格雷格·布洛克曼說:“把你做的所有研究都公開,並不見得是一種最好的方法……我們會產出很多開放的源代碼。但我們也有很多不想馬上發布的東西。”

保護商業秘密的立場,在2019年發布GPT-2之後就占據了上風。這一年3月,OpenAI正式宣布放棄非營利的法律性質,轉型為一家“設利潤上限的”營利公司,這個上限就是首輪投資者不能獲得超過其投資額100倍的回報。在接受了微軟的10億美元投資之後,OpenAI將GPT-3大模型授權給微軟獨家使用,之後的所有大模型也都為微軟所獨享。雖然從法律上OpenAI並沒有並入微軟,但它實際上已經成為後者的一個研發部門。正因如此,在2023年的OpenAI首席執行官換人風波中,微軟發揮了決定性的影響力。也因為如此,馬斯克最近在加州舊金山初審法院提起訴訟,主張該公司違背了承諾,侵犯了自己作為創始人之一的權利。

OpenAI與微軟的整合,會進一步強化微軟在操作係統和生產力工具領域的壟斷地位。實際上,先進入開源平台成為它的重要開發者和用戶,然後利用自己的算力和數據優勢吸引開源平台上的開發者為自己服務,最終使開源平台私有化為自己的一部分,是包括微軟在內的數字巨頭常用的策略。2018年,微軟收購了全球開發者創建、存儲、管理和共享代碼的平台GitHub,該平台有超過1億的軟件開發者用戶,同時也是全球最大的源代碼托管商。作為一個擁有超過20萬名員工和龐大的官僚機構的巨型企業,微軟的管理層認識到企業內部缺乏人工智能領域的創新力。將OpenAI留在微軟外部並享有它的專屬服務,對微軟來說是一種新的或許更明智的策略。得到OpenAI的專屬服務後,微軟已經將GPT-4等大模型整合到自己的現有產品和服務中,比如搜索引擎必應和生產力工具Office軟件。在搜索引擎方麵,新的必應雖然為微軟贏得了八倍的下載量,但未能撼動穀歌的絕對霸主地位。而在微軟占據市場支配地位的生產力工具領域,基於大模型的AI助手Office Copilot或許會進一步強化其壟斷地位,並保持遙遙領先。未來,微軟還會將大模型整合進Windows操作係統。

壟斷會帶來壟斷者任意定價和服務質量下降,損害消費者福祉。使用過Windows的用戶都很清楚它是多麽不好用。重資本入場的平台企業,一開始會投入巨額資金補貼用戶、改善用戶體驗、開展研發和創新活動,一旦市場支配地位形成,便會實行壟斷者定價,降低服務質量。在存在自然壟斷的領域(數字市場就是這樣一個領域),公共監督和法定監管通常優於通過競爭實現的市場規訓。常見的監管方法包括法定價格範圍、最低服務質量標準、交互可操作性要求、可信數據環境標準、安全標準等。簡言之,就是采用規製+反壟斷的組合拳。

▍三

製度性引領和幹預是確保AI的發展方向與人類目的對齊的主要方法,而人本主義應當是我們討論發展AI的目的時所堅守的基本立場。有些人認為應當放棄人類中心主義的立場,不應當用人的局限性來限製人工智能的無盡疆域,包括承認它最終會變得遠比人更聰明、具有自我意識並最終統治人或消滅人。這種觀點和某些極端生態主義者所主張的“消滅人類保護地球”異曲同工,屬於超出理性討論範疇的價值選擇,也是不會被大多數人接受的一種價值選擇。人本主義立場要求擺正AI的工具地位,隻發展那些輔助人類活動的AI技術。

弗蘭克·帕斯奎爾提出的“新的機器人法則”,就是對這樣一種基本觀點的係統表述:“1. 機器人係統和人工智能應當輔助職業人士,而不是取代他們;2. 機器人係統和人工智能不應當假冒人類;3. 機器人係統和AI不應當加劇零和的軍備競賽;4. 機器人係統和人工智能必須顯示其創造者、控製者和所有權人的身份。”這些原則都有相當強的現實針對性,比如第一條實際上針對的是數字科技時代的一個日益顯著的事實——勞動者的“去技能化”。大量過去需要人類專業技能完成的工作被算法取代了,留給人類的往往是那些不需要創造性思維和專業知識,而隻需要身體技能和直覺的工作,比如送外賣、送快遞。這背後的技術原理是“莫拉維克悖論”:“讓計算機在解決智力測驗問題或玩跳棋方麵表現出成人水平相對容易,但在感知和運動方麵讓計算機具有一歲兒童的技能卻很困難或不可能 。”原因很簡單:智力測試或下棋是在人為設定的邊界和規則範圍內進行可窮盡的推演,而不是去適應沒有給定邊界且充滿不確定性的物理環境並在其中生存下去。後者是人類經過漫長的進化過程才習得並銘刻在DNA當中的,人的身體運動技能和直覺感知正是其表現。

到了人工智能時代,人所創造的機器逐漸主導了人類需要運用智力才能完成的那些工作,人自己卻隻剩下那些憑本能就能完成的工作,這是技術原理和政治經濟原理結合後的產物。由於腦力工作者受教育時間長,工資相對較高,為了節約勞動力成本,資本家當然樂於用人工智能取代人來從事此種勞動。於是,在外賣和快遞行業,我們可以看到算法充當著管理者和調度員的角色,精準規劃和控製著人類勞動者的路線和時間。

控製論之父維納早在1950年便預見了機器不斷侵蝕人類生產活動空間的前景。在《人有人的用處》一書中,他指出:“現代人,尤其是現代美國人,盡管他可以有很多‘懂得如何做’的知識,但他的‘懂得做什麽’的知識卻是極少的。他樂意接受高度敏捷的機器決策,而不想較多地追問一下它們背後的動機和原理為何。”他指出,人類麵對的威脅不是機器,而是人本身。如果我們不去追問和思考“要做什麽”,而是任由機器和機器的設計者把我們嵌入到生產流水線上,那麽人也就變成了機器的一部分:“作為機器的一個元件來利用的東西,事實上就是機器的一個元件。”維納曾經的老師、哲學家羅素給這本書寫了一篇題為《人還有存在的必要嗎?》的書評,其中寫道:“有些事情是機器無法做到的。它們無法創作偉大的藝術、偉大的文學或偉大的哲學;它們無法發現人類心靈中秘密的幸福源泉;它們對愛和友誼一無所知。”羅素認為智能化的機器應當被用於將人類從生存壓力所迫的勞役中解放出來,讓所有人都能享有原本隻有貴族或少數社會精英才能享有的“奢侈品”——閑暇,從而去從事那些隻有人類才擅長做的創造性的以及帶來幸福感的事情。

但我們需要進一步發展這種論證。首先,人不必通過證明自己“有用”來證明自己有存在的必要。康德所說的“人是目的,不是手段”,應該是人本主義思考的出發點。一方麵,即便機器已經能夠做人類需要運用智力才能做的大多數事情,人類也應該通過製度設計來確保人的處境不會惡化。另一方麵,更重要的是,我們需要從一開始就想清楚,什麽樣的人工智能發展方向是值得追求的,是不會降低大多數人的生活水平和幸福感的——換句話說,是符合公共利益的。顯然,堅持人本主義立場的人都不會說,我們發展人工智能是為了讓它最終變得比人更聰明,可以擺脫人的控製並追求自己的目的,無論這種目的是否與人類的目的相吻合。我們創造機器不是為了讓它像人,畢竟世界上已經有了數十億活生生的人;不是為了讓它去從事那些我們從中可以獲得意義感和成就感的事情;而是為了讓它幫助我們去做那些煩瑣、勞累、重複但又必要的工作,以及幫助我們去做那些我們想做,但如果不借助智能化工具就做不到或者不能做得很好的事情。簡單地說,就是要發明和發展有用的人工智能。

其次,從人本主義立場出發,我認為目前OpenAI所代表的生成式人工智能發展道路已經走錯了方向。ChatGPT和Sora這種類型的生成式人工智能工具,是在做人類平均水平的創作者能夠做而且願意做的事情,同時由於缺乏人類特有的目的性和環境適應性,它們所生成的內容隻能滿足娛樂和蒙混過關的需求,而無法用於追求真實性、嚴謹性和真誠性的內容生產。

阿努·布拉德福德認為存在三個“數字帝國”,它們對數字經濟有著完全不同的構想,並因此發展出三種全然不同的監管模式:一是美國的市場驅動模式,以促進創新為導向,鼓勵贏家通吃,甘冒巨大的風險;二是中國的國家驅動模式,以發展和穩定為兩大價值,試圖在兩者之間維持平衡;三是歐盟的權利本位模式,試圖在數字技術不斷侵蝕人類隱私和自主性的現實處境中維係人的尊嚴和權利。這些“數字帝國”之間的鬥爭有兩個主戰場:一是橫向的國與國之間的鬥爭,包括技術、商業模式和規範等多個層麵;二是縱向的國家與企業(包括本國科技企業和在本國運營的外國科技企業)之間的鬥爭。

另有學者指出,由於包括人工智能在內的數字科技及其商業應用的全球化特點,數字科技強國往往主張跨境的數據自由流動和人工智能部署,以為本國數字巨頭獲取全球數據和占領全球市場創造製度條件,此種戰略被稱為“數字帝國主義”(digital imperialist),美國是其唯一代表;而缺乏本土數字科技巨頭的國家,則往往通過強調個人數據權利保護來限製數據的跨境流動,同時也限製境外數據企業在本地的數據獲取和人工智能部署,以維護數據主權,此種戰略被稱為“數字主權主義”(digital sovereigntist),以歐盟各國為主要代表。

中國香港學者張湖月則將中國的人工智能監管比喻成高空疊羅漢走鋼絲這樣的雜技表演,既要持續前進,又要保持動態微妙平衡,還要承受高空墜落恐懼的壓力。但這可能恰恰是人工智能監管該有的樣子。任由市場主導,則投資者利益驅動下的人工智能技術形態和商業模式,會進一步收割大眾用戶的注意力、時間、金錢和智商,還不用說馬斯克所擔心的人工智能失控帶來的人類生存危機。如果繼續堅持傳統的個人權利本位,那麽必須利用海量數據來訓練的人工智能及其產業將無從發展。但不發展並不意味著免於被數字巨頭利用和沒有風險,而是往往會走向被美國的數字巨頭利用和收割,正如歐洲的現實處境那樣。

查看評論(0)