簡體 | 繁體
loading...
新聞頻道
  • 首頁
  • 新聞
  • 讀圖
  • 財經
  • 教育
  • 家居
  • 健康
  • 美食
  • 時尚
  • 旅遊
  • 影視
  • 博客
  • 群吧
  • 論壇
  • 電台
  • 焦點新聞
  • 圖片新聞
  • 視頻新聞
  • 生活百態
  • 娛樂新聞
1您的位置: 文學城 » 新聞 » 焦點新聞 » 從達特茅斯到OpenAI,AI的曆史是一部爭權史

從達特茅斯到OpenAI,AI的曆史是一部爭權史

文章來源: 騰訊 於 2025-07-01 08:17:32 - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數

從達特茅斯到OpenAI,AI的曆史是一部爭權史

在斯坦福商學院最新一期的網絡節目《權力與真相》中,斯坦福大學教授、企業與社會倡議(CASI)項目主任Anat Admati(音譯:阿納特·阿德馬蒂)與《大西洋》月刊獲獎記者Karen Hao(音譯:郝珂靈)進行了一場對話,撕開了AI領域最鋒利的切口——從1956年達特茅斯學院的實驗室誕生起,“人工智能”這個概念就帶著雙重基因:既是對技術突破的憧憬,也是一場爭奪資源的“好故事”。


Karen Hao畢業於麻省理工學院,曝料過多家美國科技巨頭的黑幕,因新聞報道獲得多個獎項。她在日前出版的新書《AI帝國:山姆·奧特曼與OpenAI的夢想與噩夢》(Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI)中,揭示了OpenAI內部對通用人工智能兩種截然不同的信仰以及權力鬥爭內幕。

在這場對話中,兩位嘉賓提到了幾個核心關鍵點:

1、目前行業對AI的態度,無論是支持還是質疑,最終都在強化一個問題:這項技術太重要,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者。

2、AI看似智能,其實背後靠的是大量隱形人力,而有些企業刻意掩蓋這一點,隻為讓AI看起來像“魔法”。

3、科技公司們對AI研究中心的資助正逐漸侵蝕學術獨立性,使得學者趨於回避批評、強調潛力,從而弱化了對AI社會責任與倫理問題的討論。

4、目前,美國的AI企業與美國政府正聯手構建“科技帝國”,試圖將技術輸出全球,掌控話語權。

圖片

以下為訪談內容摘要:

問:歡迎你,

Karen。你的新書剛剛出版。這本書聚焦於OpenAI和它的掌舵人奧特曼,同時聚焦於當前學術界與社會廣泛討論的“AI”命題。在正式展開探討前,我想先請你從基礎層麵談談:究竟什麽是AI?它又是如何發展至當前階段的?

答:AI這個詞是在1956年由達特茅斯學院的一位助理教授約翰·麥卡錫(John McCarthy)提出的。他當時起這個名字的目的是為了給自己正在進行的研究爭取更多的關注和資金。幾十年後他在一次公開辯論中親口承認,發明“AI”這個術語本身就是為了當時的研究爭取更多資金。

這個詞聽起來很有吸引力,尤其是“智能”這個概念,大家本能地會覺得“更智能”就是“更好”。但問題是,關於人類智能本身的來源,我們至今都沒有科學共識。因此,創建一個以 “再造人類智能” 為使命的領域,本身就充滿不確定性。

從1956年到現在,這個領域內部一直在爭論:AI到底該是什麽樣的?該用什麽技術?它該為誰服務?我在書裏提出的觀點是,現在主導AI發展的路徑,其實主要是服務於矽穀的利益——在“技術服務於人類”的敘事外衣下,矽穀借此積累了巨大的經濟與政治權力。

為了真正理解這些AI公司今天所擁有的影響力,我們必須把它們看作是一種新的“帝國形態”。這也是我將書名定為《AI帝國》的原因。

問:現在很多人都在日常生活中接觸到這些AI產品,比如ChatGPT。過去這可能還隻是一些“科幻概念”,但現在它已經進入了教育、工作、寫作等各種場景,引發了很多討論,比如:AI到底對我們意味著什麽?它是不是在讓我們停止思考?甚至在改變整個教育體係?

答:是的,AI已經從一個遙遠的技術話題,變成了日常生活中不可忽視的現實存在。學生用它寫作業,老師再也不能像過去那樣輕鬆設計出“防作弊”的試題。這種轉變確實引發了許多根本性的問題,比如,“教育”的意義究竟是什麽?我們到底是在傳授知識,還是在教思考和判斷?如果未來的人們因為依賴AI而逐漸喪失了推理、學習、批判性思維的能力,我們的社會又會變成什麽樣子?

但這不僅是教育的問題,更是整個社會的問題。我們還需要進一步追問:AI會對哪些職業和勞動形態產生衝擊?哪些人可能從中受益?哪些人將被邊緣化,甚至被係統性地剝奪話語權?而這些問題的核心,並不隻是“AI是否強大”,而是“AI由誰開發”“為何而開發”“開發過程中誰被代表、誰被排除”。

很多公眾對於AI的認識仍停留在“智能增強工具”或“潛在的通用智能”的想象之中,但我們往往忽視了它已經在現實中造成的結構性影響

——比如強化平台權力、擴大社會不平等、加劇資源消耗等。而這些後果,恰恰源於當下主導AI開發的邏輯:不計代價地追逐規模和速度,忽視過程中的社會成本。

所以,當我們討論AI是否在改變教育、工作、社會秩序時,必須回到它所嵌入的政治經濟結構中去理解:我們需要什麽樣的AI,誰來決定這些技術的發展方向,它究竟是為了誰而服務?

問:這些問題的背後其實是一些主導性的“故事”。你提到過,現在主導AI討論的兩種說法,一種是“AI將帶我們走向烏托邦”,另一種是“AI將毀滅我們”。你把這兩種立場分別稱為“技術樂觀派”和“末日論者”。能否具體說說它們的本質區別和共同點?

答:我稱他們為“技術樂觀派”(Boomers)和“末日論者”(Doomers),這是矽穀圈子裏也常用的術語。

表麵看,這兩個陣營似乎意見對立,但它們其實有一個共同點:都把AI描繪成極其強大的力量。

這就形成了一個潛在的危險:無論是說AI將拯救世界,還是說它會毀滅人類,最終都會導向同一個結論——這項技術太重要了,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者,比如OpenAI首席執行官奧特曼。

我在書裏也揭示了這種“控製欲”:他們用通用人工智能(AGI

)這個概念來延續“再造人類智能”的夢想,製造出一種神秘而宏大的未來願景。

而這套故事背後,是巨大的資源投入:數據、能源、計算能力,甚至勞動力。

問:說到資源,AI到底需要多少資源才能運行?我們日常使用這些工具時,背後消耗的是什麽?是不是有點像一個“黑匣子”?

答:是的,我們今天看到的AI係統,大多基於一種叫“深度學習”的技術。它使用“神經網絡”來處理和理解數據——這些網絡原本是受到人腦啟發設計的。

OpenAI最早做的事,就是把這種深度學習技術應用在極大規模的數據上。他們不是在一個筆記本電腦上訓練模型,而是用上萬個芯片,組成超級計算機,全天候運行幾個月來訓練一個模型。他們幾乎用了整個互聯網的英文內容,還有其他幾種語言的數據。

最近麥肯錫的一份報告指出,如果照現在這種“無限擴大”的速度發展AI,五年內,美國電力係統需要增加相當於2到6個加州全年電力消耗的容量,才能滿足AI的發展需要。

問:除了環境,還有一個容易被忽視的問題是人力勞動。這些模型的構建其實並不是完全“自動化”的,對吧?

答:是的,AI的“智能”背後,其實是大量人工勞力在支撐

。舉例來說,為了讓模型不輸出仇恨言論、色情內容或暴力信息,AI企業需要雇傭成千上萬的合同工進行“內容審查”和“數據清洗”。他們反複觀看、標注、刪除有害內容——這是一項高度重複、極具精神衝擊的工作。

在社交媒體早期階段,內容審核員就已經被證實會患上創傷後應激障礙(PTSD),AI領域同樣存在這種傷害。但不同的是,AI企業現在更加刻意地掩蓋這些“看不見的人工勞工”,因為他們想讓AI看起來就像“魔法”

。

問:這似乎是一整套精心設計的故事。他們如何通過語言包裝這些現實?

答:完全正確。AI就是一場講“故事”遊戲,而這些故事極其精致、充滿誘導性。比如,他們會說數據儲存在“雲端”(the cloud),這個詞聽起來輕盈、透明、遙不可及。但現實是什麽?是地麵上巨大的金屬機房,塞滿了服務器、高功耗芯片和冷卻係統。這根本不是“雲”,而是一座座工業怪獸。

這種語言選擇並非偶然,而是為了讓人感覺AI很幹淨、很先進、不帶任何汙染。而實際情況正好相反:它高度依賴能源、土地、水、人工,同時造成了真實世界的傷害。

問:我們再來說說學術界。很多人可能以為大學是研究AI影響的中立平台。但你在書中指出,學術界其實也受到了科技公司的深度影響,情況是否如此?

答:情況非常複雜。很多大學的AI研究中心,背後都有大科技公司的資金支持。比如,我剛剛在斯坦福大學以人為本人工智能研究所(Stanford HAI)做了一場演講。這是一家資金極為充裕的研究機構,其中大部分資金都來自科技企業。

這會產生一個問題:即便學者本人還留在大學任教,他們也可能因為數據、資源、合作機會的獲取,而不得不和這些公司保持密切關係。長此以往,研究的獨立性被侵蝕,聲音趨於溫和,批評逐漸減少。很多學者本來希望從社會責任、倫理視角來審視AI,但在這種企業主導的學術環境中,他們也傾向於強調AI的“潛力”,而盡量回避它的負麵後果。

這不僅影響學術研究的質量,也讓公眾更難獲取真實、全麵的信息。

問:你還談到過政府在AI擴張中的角色,比如美國政府和科技巨頭之間的共生關係。你怎麽看待這種現象?

答:現在不僅矽穀的公司處於“帝國時代”,美國政府本身也進入了“帝國建設階段”。

它們互相利用:企業希望借助政府,把自己的技術擴展到全球;而美國政府則希望借助這些公司鞏固自己的地緣政治優勢。

比如,OpenAI最近推出了全球合作倡議“OpenAI for Countries”,意圖成為全球不同國家AI基礎設施的“底層供應商”——不僅是軟件,還包括硬件。為了推廣這個計劃,這家公司就需要美國政府出麵牽線、達成合作。

問:你提到了“由下而上”的變革路徑。但在當前這種權力高度集中的AI時代,普通人真的能發出自己的聲音、產生影響嗎?

答:我相信是有可能的。在書中我也提過一個真實案例:智利的一群水資源維權者。他們居住在智利一個資源緊張的小鎮,在全球權力體係中可以說處於最底層——他們生活在全球南方,在本國又屬於經濟邊緣群體。

但當穀歌計劃在當地建立數據中心、抽取淡水資源時,這些居民意識到:這些水原本就是屬於他們,穀歌無權以“投資”之名強行使用。他們組織起來,從地方社區抗爭升級為向穀歌智利公司施壓,最終直達穀歌總部,並促使智利政府官員親自出麵調解。

問:這個案例確實很鼓舞人心。你覺得對美國民眾來說有什麽啟示?

答:這個故事尤其值得美國人深思。美國各地的地方政府常常為了吸引大公司,提供巨額稅收減免,允許建設數據中心、工廠或物流設施,美其名曰“推動發展”。但很多人沒有意識到:當數據中心建成後,用水量暴漲、電力負荷上升、住房價格上漲、學校與醫療資源短缺的問題就來了,而大公司卻未必會帶來足夠的高質量就業。所以我覺得,美國民眾也應該學習智利人的做法,質疑那些“經濟繁榮”的故事,看清它們背後實際的利益分配和由此產生的後果。

問:你在書中還提到另一個城市,最初歡迎數據中心,後來卻徹底禁止它們了,能說說那是什麽事?

答:那是亞利桑那州的一個城市。起初,當地政府非常歡迎蘋果、穀歌等公司建設數據中心,因為他們被承諾未來這些公司會在當地設立更多的辦公設施,提供優質的白領崗位,比如軟件工程師、研發人員等。

但現實是:這些承諾根本沒有兌現。數據中心建成了,卻沒有帶來高質量就業,也沒有刺激本地經濟複蘇。反而占用了大量土地和水資源,引發當地居民的抗議。最終,這座城市出台政策,完全禁止數據中心新建項目,成為全美極少數拒絕數據中心的城市之一。

問:所以我們是否可以說——如果公眾不加警惕地接受這些AI故事,可能會在不知不覺中被剝奪權利,直到為時已晚?

答:是的,這也是我寫這本書的初衷之一。AI的力量正在以前所未有的速度擴張,而公眾卻缺乏足夠的信息和工具去理解其影響。如果我們想“讓真相擁有力量”,首先就必須警覺、質疑、調查和發聲,而不能被那些“未來願景”或“技術樂觀主義”左右。

問:你對現在關注AI問題的公眾、學者和媒體工作者有什麽建議?

答:我的建議是,麵對AI的發展,不要輕信表麵故事

。每當有人說某項AI技術“可以提升效率”或“對社會有好處”時,我們都應該追問一句:誰真正從中受益?誰又為此承擔代價?在AI帶來的種種影響中,那些受衝擊最大的人,往往卻最沒有話語權,比如基層社區、低薪勞工和全球南方國家,我們必須學會傾聽這些被忽視的聲音。同時,也要警惕簡單化的講故事方式,不要陷入“AI將帶來烏托邦”或“AI將毀滅世界”的非黑即白。現實遠比這複雜,我們需要保持開放、審慎、多元的視角,理解這項技術真正意味著什麽。

  • 海外省錢快報,掌櫃推薦,實現買買買自由!
查看評論(2)
  • 文學城簡介
  • 廣告服務
  • 聯係我們
  • 招聘信息
  • 注冊筆名
  • 申請版主
  • 收藏文學城

WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.

Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy

24小時熱點排行

中國雜技大媽WNBA表演時墜落!已效力NBA超30年
"大而美法案"眾院219票闖關!5共和黨人一度倒戈
美國最貴的,是中國AI人才:中國學霸正“統治”AI圈
38歲抗癌網紅宣布停掉天價藥,決定為自己活一回
“不像合格的妻子”:18歲嫁到中國的緬甸新娘




24小時討論排行

中國工程師持旅遊簽入境 對美海關說"來工作" 結果…
曝殲20纏鬥F35 央視強調“犧牲準備”令小粉紅洩氣
為什麽加拿大的豬肉總有股“尿味”?真相竟是…
被視“國運之戰” 中國發力超級計劃 堪比“兩彈一星”
烏轟炸庫斯克俄軍指揮部 成功擊殺俄海軍副司令
遙祝薄熙來生日快樂 薄瓜瓜發文:最偉大的父親
利物浦球星若塔因車禍喪生 年僅28歲 十天前剛結婚
攻台B計劃?美媒曝北京更大野心 垂涎俄資源寶地
鑒別一個大學最好的方法,就是問它有沒有空調!
亞裔女川粉遭逮捕 老公:川普是對的 他為美國好
美國6月非農新增14.7萬人超預期 失業率意外降至4.1%
爭奪未來能源主導權之戰:中國正在領先
美國證實暫停部分對烏克蘭軍援,澤連斯基回應
河南省鄭州市中級人民法院,和它的一份無恥的判決
紐約時報:共和黨削減電動車補貼將削弱車企競爭力
朝鮮將派遣額外3萬名士兵,前往俄烏戰爭前線協助莫斯科
文學城新聞
切換到網頁版

從達特茅斯到OpenAI,AI的曆史是一部爭權史

騰訊 2025-07-01 08:17:32

從達特茅斯到OpenAI,AI的曆史是一部爭權史

在斯坦福商學院最新一期的網絡節目《權力與真相》中,斯坦福大學教授、企業與社會倡議(CASI)項目主任Anat Admati(音譯:阿納特·阿德馬蒂)與《大西洋》月刊獲獎記者Karen Hao(音譯:郝珂靈)進行了一場對話,撕開了AI領域最鋒利的切口——從1956年達特茅斯學院的實驗室誕生起,“人工智能”這個概念就帶著雙重基因:既是對技術突破的憧憬,也是一場爭奪資源的“好故事”。


Karen Hao畢業於麻省理工學院,曝料過多家美國科技巨頭的黑幕,因新聞報道獲得多個獎項。她在日前出版的新書《AI帝國:山姆·奧特曼與OpenAI的夢想與噩夢》(Empire of AI: Dreams and Nightmares in Sam Altman's OpenAI)中,揭示了OpenAI內部對通用人工智能兩種截然不同的信仰以及權力鬥爭內幕。

在這場對話中,兩位嘉賓提到了幾個核心關鍵點:

1、目前行業對AI的態度,無論是支持還是質疑,最終都在強化一個問題:這項技術太重要,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者。

2、AI看似智能,其實背後靠的是大量隱形人力,而有些企業刻意掩蓋這一點,隻為讓AI看起來像“魔法”。

3、科技公司們對AI研究中心的資助正逐漸侵蝕學術獨立性,使得學者趨於回避批評、強調潛力,從而弱化了對AI社會責任與倫理問題的討論。

4、目前,美國的AI企業與美國政府正聯手構建“科技帝國”,試圖將技術輸出全球,掌控話語權。

圖片

以下為訪談內容摘要:

問:歡迎你,

Karen。你的新書剛剛出版。這本書聚焦於OpenAI和它的掌舵人奧特曼,同時聚焦於當前學術界與社會廣泛討論的“AI”命題。在正式展開探討前,我想先請你從基礎層麵談談:究竟什麽是AI?它又是如何發展至當前階段的?

答:AI這個詞是在1956年由達特茅斯學院的一位助理教授約翰·麥卡錫(John McCarthy)提出的。他當時起這個名字的目的是為了給自己正在進行的研究爭取更多的關注和資金。幾十年後他在一次公開辯論中親口承認,發明“AI”這個術語本身就是為了當時的研究爭取更多資金。

這個詞聽起來很有吸引力,尤其是“智能”這個概念,大家本能地會覺得“更智能”就是“更好”。但問題是,關於人類智能本身的來源,我們至今都沒有科學共識。因此,創建一個以 “再造人類智能” 為使命的領域,本身就充滿不確定性。

從1956年到現在,這個領域內部一直在爭論:AI到底該是什麽樣的?該用什麽技術?它該為誰服務?我在書裏提出的觀點是,現在主導AI發展的路徑,其實主要是服務於矽穀的利益——在“技術服務於人類”的敘事外衣下,矽穀借此積累了巨大的經濟與政治權力。

為了真正理解這些AI公司今天所擁有的影響力,我們必須把它們看作是一種新的“帝國形態”。這也是我將書名定為《AI帝國》的原因。

問:現在很多人都在日常生活中接觸到這些AI產品,比如ChatGPT。過去這可能還隻是一些“科幻概念”,但現在它已經進入了教育、工作、寫作等各種場景,引發了很多討論,比如:AI到底對我們意味著什麽?它是不是在讓我們停止思考?甚至在改變整個教育體係?

答:是的,AI已經從一個遙遠的技術話題,變成了日常生活中不可忽視的現實存在。學生用它寫作業,老師再也不能像過去那樣輕鬆設計出“防作弊”的試題。這種轉變確實引發了許多根本性的問題,比如,“教育”的意義究竟是什麽?我們到底是在傳授知識,還是在教思考和判斷?如果未來的人們因為依賴AI而逐漸喪失了推理、學習、批判性思維的能力,我們的社會又會變成什麽樣子?

但這不僅是教育的問題,更是整個社會的問題。我們還需要進一步追問:AI會對哪些職業和勞動形態產生衝擊?哪些人可能從中受益?哪些人將被邊緣化,甚至被係統性地剝奪話語權?而這些問題的核心,並不隻是“AI是否強大”,而是“AI由誰開發”“為何而開發”“開發過程中誰被代表、誰被排除”。

很多公眾對於AI的認識仍停留在“智能增強工具”或“潛在的通用智能”的想象之中,但我們往往忽視了它已經在現實中造成的結構性影響

——比如強化平台權力、擴大社會不平等、加劇資源消耗等。而這些後果,恰恰源於當下主導AI開發的邏輯:不計代價地追逐規模和速度,忽視過程中的社會成本。

所以,當我們討論AI是否在改變教育、工作、社會秩序時,必須回到它所嵌入的政治經濟結構中去理解:我們需要什麽樣的AI,誰來決定這些技術的發展方向,它究竟是為了誰而服務?

問:這些問題的背後其實是一些主導性的“故事”。你提到過,現在主導AI討論的兩種說法,一種是“AI將帶我們走向烏托邦”,另一種是“AI將毀滅我們”。你把這兩種立場分別稱為“技術樂觀派”和“末日論者”。能否具體說說它們的本質區別和共同點?

答:我稱他們為“技術樂觀派”(Boomers)和“末日論者”(Doomers),這是矽穀圈子裏也常用的術語。

表麵看,這兩個陣營似乎意見對立,但它們其實有一個共同點:都把AI描繪成極其強大的力量。

這就形成了一個潛在的危險:無論是說AI將拯救世界,還是說它會毀滅人類,最終都會導向同一個結論——這項技術太重要了,必須由少數人來掌控。而這些人,往往正是講“故事”的科技公司領導者,比如OpenAI首席執行官奧特曼。

我在書裏也揭示了這種“控製欲”:他們用通用人工智能(AGI

)這個概念來延續“再造人類智能”的夢想,製造出一種神秘而宏大的未來願景。

而這套故事背後,是巨大的資源投入:數據、能源、計算能力,甚至勞動力。

問:說到資源,AI到底需要多少資源才能運行?我們日常使用這些工具時,背後消耗的是什麽?是不是有點像一個“黑匣子”?

答:是的,我們今天看到的AI係統,大多基於一種叫“深度學習”的技術。它使用“神經網絡”來處理和理解數據——這些網絡原本是受到人腦啟發設計的。

OpenAI最早做的事,就是把這種深度學習技術應用在極大規模的數據上。他們不是在一個筆記本電腦上訓練模型,而是用上萬個芯片,組成超級計算機,全天候運行幾個月來訓練一個模型。他們幾乎用了整個互聯網的英文內容,還有其他幾種語言的數據。

最近麥肯錫的一份報告指出,如果照現在這種“無限擴大”的速度發展AI,五年內,美國電力係統需要增加相當於2到6個加州全年電力消耗的容量,才能滿足AI的發展需要。

問:除了環境,還有一個容易被忽視的問題是人力勞動。這些模型的構建其實並不是完全“自動化”的,對吧?

答:是的,AI的“智能”背後,其實是大量人工勞力在支撐

。舉例來說,為了讓模型不輸出仇恨言論、色情內容或暴力信息,AI企業需要雇傭成千上萬的合同工進行“內容審查”和“數據清洗”。他們反複觀看、標注、刪除有害內容——這是一項高度重複、極具精神衝擊的工作。

在社交媒體早期階段,內容審核員就已經被證實會患上創傷後應激障礙(PTSD),AI領域同樣存在這種傷害。但不同的是,AI企業現在更加刻意地掩蓋這些“看不見的人工勞工”,因為他們想讓AI看起來就像“魔法”

。

問:這似乎是一整套精心設計的故事。他們如何通過語言包裝這些現實?

答:完全正確。AI就是一場講“故事”遊戲,而這些故事極其精致、充滿誘導性。比如,他們會說數據儲存在“雲端”(the cloud),這個詞聽起來輕盈、透明、遙不可及。但現實是什麽?是地麵上巨大的金屬機房,塞滿了服務器、高功耗芯片和冷卻係統。這根本不是“雲”,而是一座座工業怪獸。

這種語言選擇並非偶然,而是為了讓人感覺AI很幹淨、很先進、不帶任何汙染。而實際情況正好相反:它高度依賴能源、土地、水、人工,同時造成了真實世界的傷害。

問:我們再來說說學術界。很多人可能以為大學是研究AI影響的中立平台。但你在書中指出,學術界其實也受到了科技公司的深度影響,情況是否如此?

答:情況非常複雜。很多大學的AI研究中心,背後都有大科技公司的資金支持。比如,我剛剛在斯坦福大學以人為本人工智能研究所(Stanford HAI)做了一場演講。這是一家資金極為充裕的研究機構,其中大部分資金都來自科技企業。

這會產生一個問題:即便學者本人還留在大學任教,他們也可能因為數據、資源、合作機會的獲取,而不得不和這些公司保持密切關係。長此以往,研究的獨立性被侵蝕,聲音趨於溫和,批評逐漸減少。很多學者本來希望從社會責任、倫理視角來審視AI,但在這種企業主導的學術環境中,他們也傾向於強調AI的“潛力”,而盡量回避它的負麵後果。

這不僅影響學術研究的質量,也讓公眾更難獲取真實、全麵的信息。

問:你還談到過政府在AI擴張中的角色,比如美國政府和科技巨頭之間的共生關係。你怎麽看待這種現象?

答:現在不僅矽穀的公司處於“帝國時代”,美國政府本身也進入了“帝國建設階段”。

它們互相利用:企業希望借助政府,把自己的技術擴展到全球;而美國政府則希望借助這些公司鞏固自己的地緣政治優勢。

比如,OpenAI最近推出了全球合作倡議“OpenAI for Countries”,意圖成為全球不同國家AI基礎設施的“底層供應商”——不僅是軟件,還包括硬件。為了推廣這個計劃,這家公司就需要美國政府出麵牽線、達成合作。

問:你提到了“由下而上”的變革路徑。但在當前這種權力高度集中的AI時代,普通人真的能發出自己的聲音、產生影響嗎?

答:我相信是有可能的。在書中我也提過一個真實案例:智利的一群水資源維權者。他們居住在智利一個資源緊張的小鎮,在全球權力體係中可以說處於最底層——他們生活在全球南方,在本國又屬於經濟邊緣群體。

但當穀歌計劃在當地建立數據中心、抽取淡水資源時,這些居民意識到:這些水原本就是屬於他們,穀歌無權以“投資”之名強行使用。他們組織起來,從地方社區抗爭升級為向穀歌智利公司施壓,最終直達穀歌總部,並促使智利政府官員親自出麵調解。

問:這個案例確實很鼓舞人心。你覺得對美國民眾來說有什麽啟示?

答:這個故事尤其值得美國人深思。美國各地的地方政府常常為了吸引大公司,提供巨額稅收減免,允許建設數據中心、工廠或物流設施,美其名曰“推動發展”。但很多人沒有意識到:當數據中心建成後,用水量暴漲、電力負荷上升、住房價格上漲、學校與醫療資源短缺的問題就來了,而大公司卻未必會帶來足夠的高質量就業。所以我覺得,美國民眾也應該學習智利人的做法,質疑那些“經濟繁榮”的故事,看清它們背後實際的利益分配和由此產生的後果。

問:你在書中還提到另一個城市,最初歡迎數據中心,後來卻徹底禁止它們了,能說說那是什麽事?

答:那是亞利桑那州的一個城市。起初,當地政府非常歡迎蘋果、穀歌等公司建設數據中心,因為他們被承諾未來這些公司會在當地設立更多的辦公設施,提供優質的白領崗位,比如軟件工程師、研發人員等。

但現實是:這些承諾根本沒有兌現。數據中心建成了,卻沒有帶來高質量就業,也沒有刺激本地經濟複蘇。反而占用了大量土地和水資源,引發當地居民的抗議。最終,這座城市出台政策,完全禁止數據中心新建項目,成為全美極少數拒絕數據中心的城市之一。

問:所以我們是否可以說——如果公眾不加警惕地接受這些AI故事,可能會在不知不覺中被剝奪權利,直到為時已晚?

答:是的,這也是我寫這本書的初衷之一。AI的力量正在以前所未有的速度擴張,而公眾卻缺乏足夠的信息和工具去理解其影響。如果我們想“讓真相擁有力量”,首先就必須警覺、質疑、調查和發聲,而不能被那些“未來願景”或“技術樂觀主義”左右。

問:你對現在關注AI問題的公眾、學者和媒體工作者有什麽建議?

答:我的建議是,麵對AI的發展,不要輕信表麵故事

。每當有人說某項AI技術“可以提升效率”或“對社會有好處”時,我們都應該追問一句:誰真正從中受益?誰又為此承擔代價?在AI帶來的種種影響中,那些受衝擊最大的人,往往卻最沒有話語權,比如基層社區、低薪勞工和全球南方國家,我們必須學會傾聽這些被忽視的聲音。同時,也要警惕簡單化的講故事方式,不要陷入“AI將帶來烏托邦”或“AI將毀滅世界”的非黑即白。現實遠比這複雜,我們需要保持開放、審慎、多元的視角,理解這項技術真正意味著什麽。