
大多數人焦慮於同一個問題:AI 會搶走多少工作?
但真正值得問的,其實是另一個問題:AI的邊界在哪裏,到了哪裏它還非人類不可?
這個問題的答案,藏在一個鮮少被討論的交匯點——當技術走到極限時,它最依賴人類的部分,就是未來職業的起點。
根據領英、世界經濟論壇和斯坦福多份報告,AI 的加速發展將重塑職場格局,催生出一批前所未見的新崗位:AI 審計員、信任總監、人機整合師、品味設計師……
這些名字看似科幻,實則對應三大無法用代碼取代的人類能力:信任、整合與品味。
未來五年,全球將新增超過一千萬個由 AI 驅動但必須由人類擔責的新角色。我們要做的,不是逃離 AI,而是看清它的盲區——那裏恰恰是人類價值最光亮的地方。
紐約時報剛剛發表了一篇文章,探討AI 時代最具前景的 22 個新職業。一起來了解一下,也許,它們就是你值得考慮的下一個方向。
A.I. Might Take Your Job. Here Are 22 New Ones It Could Give You.
By Robert Capps
先坦白一句:我試過用人工智能寫這篇文章。
我先在ChatGPT的“深度研究”模式下,請它匯總一份報告,主題是人工智能興起後人類可能獲得哪些新工作。它問了幾個跟進問題就開始動工,不久便交回了一份 6000 字的報告,按行業細分。
接著,我把這份報告、編輯的原始選題說明,以及幾份關於未來工作的最新行業報告,一並輸入給 ChatGPT 4o,請它用《紐約時報雜誌》的風格寫成文章。
不到90 分鍾,文章大功告成。讀來生動有趣,信息量也足。它想象的一些未來職業略顯奇幻(例如“合成關係顧問”,據說當你愛上了自己的人工智能時,這種顧問就能出麵幫忙),但整體上涵蓋了各種可信的新崗位,並不乏妙語。對普通讀者來說,這大概算是一篇輕鬆的周日閱讀,足以引人回味。
那為什麽你現在沒看到那一版?
首先,如果我把它交給編輯,多半會被炒魷魚:文中幾乎所有引語和專家都是憑空捏造的。但我還有更深層、也更哲學的顧慮。即便那篇A.I. 版本完全屬實,交稿也會徹底誤解了編輯雇傭我的緣由。
在自由撰稿領域,與許多文字工作一樣,稿費買的不隻是你提交的字句,更是對這些字句負責——對事實、概念、公正性和表述負責。文章掛著我的署名,就意味著我本人對你讀到的內容承擔責任;同理,我的編輯也要對雇用我負責。這種責任鏈條無法交給機器。
⸻
末日論調此起彼伏,卻很少有人談到“責任關”
風投人克裏斯·薩卡(Chris Sacca)最近在蒂姆·費裏斯(Tim Ferriss)的播客上直言:“我們徹底[被操]了。”他認為,程序員、律師、會計、營銷文案及大多數白領工作都難逃厄運。
Fiverr 首席執行官米哈·考夫曼(Micha Kaufman)在一封內部郵件中,更把設計師和銷售也劃入“行將就木”的名單。
類似哀嚎已屢見不鮮,卻鮮有人深入探討人工智能如何跨越我所說的“責任關”。
人工智能已經能勝任許多任務,但在現實世界裏,工作不隻是一連串任務的總和。工作是把我們的勞動貢獻給由其他人類組成的群體——上司和同事,他們能理解我們、與我們互動,並在算法難以企及的層麵上追究責任。
這並不意味著人工智能帶來的衝擊不夠劇烈。
領英首席經濟機會官阿尼什·拉曼(Aneesh Raman)說:“我們的數據表明,到 2030 年,平均崗位所需的 70% 技能都會發生變化。”世界經濟論壇《2025 年未來就業報告》預計,未來五年,人工智能等新興技術將“替代” 900 萬個崗位;但同份報告也指出,到 2030 年,人工智能將催生約 1100 萬個新崗位,其中不少聞所未聞。
要想知道這些新機會何在,就得先看哪裏能搭建人工智能強大能力與人類需求之間的橋梁。問題不僅是“人類想要哪裏用 A.I.”,還包括“A.I. 想要哪裏用人類”。在我看來,人類將愈發不可或缺的三大領域是:信任、整合與品味。
信任
紐約大學斯特恩商學院教授羅伯特·席曼斯(Robert Seamans)研究人工智能的經濟影響。他設想了一批名為A.I. 審計員的新角色——深入人工智能係統,弄清它在做什麽、為何如此,並為技術、說明或法律責任等目的出具文檔。
他預估五年內,所有大型會計師事務所都會把“人工智能審計”列入業務範圍。
他還設想了A.I. 翻譯員:既懂人工智能,也能向企業領導者和管理層解釋其運作機製的人。“A.I. 翻譯員在超技術化的事物與管理者熟悉、需要的信息之間搭橋。”席曼斯說。
這兩類職能都可歸入“信任”大類。我沒交那篇 A.I. 版文章,部分原因是會背叛編輯的信任,更因為我不信任那篇文章——不確信其真實性、準確性、公正性。沒親自做功課和思考,我就無法判斷它是否公平、合理。
凡想在職場使用 A.I. 的人,都會遇到類似問題:它能瞬間輸出海量內容,可我們該信到什麽程度?又如何評估?
隨著人工智能在工作與組織中影響力激增,我們將遭遇大量信任難題,而解決它們離不開人類。
•事實核查員、合規專員:法律文本、年報、產品規格書、研究報告乃至暖通合同,很快都將由A.I. 撰寫,均需人類審核,以捕捉 A.I. 易犯的離奇錯誤。
•信任鑒定師/ 信任總監:負責出具可被追責的背書。
•A.I. 倫理師:為 A.I.(或人機混合團隊)的決策搭建可辯護的邏輯鏈,對投資者、管理層、客戶乃至法官與陪審團負責。席曼斯預計,未來企業的“倫理委員會”將比今天更有實權。
信任的核心是問責。從合同到核武係統,我們都需要能被追責的人類。
斯坦福大學“以人為本人工智能研究院”數字經濟實驗室主任埃裏克·布林約爾鬆(Erik Brynjolfsson)說:“無論因果鏈多複雜,最終必須追溯到某個承擔責任的人。”
•法律擔保人:在法律、建築等領域,A.I. 能完成大量基礎工作,如起草合同或設計房屋,但終究要有人類——最好具備資質——簽字背書。沃頓商學院教授伊桑·莫利克(Ethan Mollick)把這類崗位稱為人工智能的“替罪羊(sin eaters)”。
•一致性協調員:A.I. 擅長很多事,卻不擅長保持一致。時裝屋如何確保某款禮服在數十張 A.I. 生成的照片中始終準確?製造業裏的虛擬孿生經理如何確保數字複製品在迭代中保持一致?驗證一致性需要能擔責的專門角色。
•升級應對官:當A.I. 讓人感到“太機器”時,人們往往想找能共情的真人。客服領域如此,教育領域亦然,出問題時需人類介入。
————
整合
鑒於人工智能的複雜性,許多新崗位將帶濃厚技術色彩。需要深懂A.I.,又能將其匹配到業務需求的人才。
• A.I. 整合師:席曼斯稱之為“把技術與公司銜接起來的人”。CEO 在財報會上喊“我們要投 A.I.”,但具體做什麽?後端賬單?招聘篩選?白領工作流?都要有人弄清。
• A.I. 管道工:A.I. 越來越“具備主動性(agentic)”,能自主解決複雜任務,係統愈加層疊。一旦出故障,就需有人順著管道排查——找原因、修問題。
可供選擇的模型也層出不窮。可汗學院(Khan Academy)把虛擬導師嵌入業務,讓孩子學代數、寫作文。光是跟蹤模型更新、幻覺率、語言或數學能力優劣,就成了持續工作。創始人薩爾·可汗(Sal Khan)說,公司需要A.I. 評估員來專職評估。
領英數據也印證了整合崗位的崛起:
•“A.I. 主管”職位五年間增長約三倍。
•A.I. 工程師是美國增長最快的崗位,其次是 A.I. 顧問。
未來頭銜可能更細:整合專家、A.I. 培訓師(教模型學習公司數據並調整回應)、A.I. 人格總監(讓企業的 A.I. 個性成為品牌核心)。
在高風險高回報行業,如醫療,整合角色更顯關鍵:
•藥物依從優化師:構建A.I. 係統,確保病人正確服藥。
•人機評估專員:判斷純A.I.、純人類還是混合團隊在哪些情境最優。
整合成敗,關係企業生死。席曼斯以機器人行業為例:使用機器人後,製造商往往雇傭更多人,可能因為他們搶走了沒用機器人的同行業務。而機器人落地又依賴機器人整合師,地區若缺此類人才,工廠就難用機器人,自然也難以擴張。
⸻
品味
人工智能時代,人類仍需告訴A.I. 要做什麽,而這需要清晰的願景。當人人都能用上同樣的生成式工具,品味就變得無比重要。
《60 分鍾》曾播出一段采訪,主持人安德森·庫珀(Anderson Cooper)向音樂製作人裏克·魯賓(Rick Rubin)發問:
庫珀:你會演奏樂器嗎?
魯賓:勉強。
庫珀:你會操作調音台嗎?
魯賓:不會。我沒技術能力,對音樂也一竅不通。
庫珀:那你靠什麽吃飯?
魯賓:靠我對品味的自信,以及表達感受的能力。事實證明,這對藝術家很有幫助。