在人工智能的賽道上,中國曾一度被外界寄予厚望。擁有世界最多的互聯網用戶、海量的數據資源、強大的製造能力與政策支持,中國理應是AI技術天然的沃土。然而,現實卻頗為諷刺:中國本土大模型的代表 DeepSeek 陷入用戶銳減、使用率腰斬的困境。據國際知名半導體研究機構 Semianalysis 發布的 2025 年 7 月報告,DeepSeek 官網流量自年初以來下滑近三成,用戶使用率從高點的 7.5% 降至 3%。與此同時,ChatGPT 同期用戶增長達 40.6%,Gemini 增幅更高達 85.8%。這份對比令人觸目驚心。
問題到底出在哪?為何手握“人口紅利”與“國家戰略”的中國AI,卻像一個被施了咒語的巨人,舉步維艱?答案或許無需繞遠:是中國一貫的“內容審查製度”——這套為專製權力服務、以思想控製為核心的機製,正在悄然成為限製AI成長的最大桎梏。
DeepSeek的最大問題,不是技術團隊不夠聰明,不是GPU算力不夠強,而是它被人為“馴化”得太溫順、太膽小、太沒用。有使用者直言不諱:DeepSeek響應慢、不理人,很多問題“不能問、不能查”;有人戲稱,DeepSeek根本不是AI,是“AI前台客服機器人”——隻會重複無關痛癢的套話,麵對稍具思辨性的問題就“打哈哈”或者直接“禁言”。
據傳,DeepSeek模型上線前曾被強製過濾多達 35萬個敏感詞,包括但不限於政治、曆史、宗教、社會運動、性別議題、LGBTQ、民族問題、貧富差距、行政透明、地方治理……凡是有可能涉及“社會風險”的內容,統統屏蔽。在這種訓練策略下,AI像是一個受盡恐嚇的孩子,眼觀六路,耳聽八方,生怕說錯一句話。你問它六四,它裝傻;你問它新疆,它裝死;你問它“習近平是誰”,它就告訴你“該問題無法回答”。這不是AI,這是“審查的數字延伸”。
OpenAI 的 ChatGPT 可以討論自由與審查,可以引用CNN與福克斯的對立觀點;Google Gemini 可以在你輸入“台灣總統是誰”時直接告訴你賴清德而不是“該話題存在爭議”;Anthropic Claude 能分析種族主義的結構性根源;連Meta的LLaMA都比DeepSeek更願意麵對複雜真實的世界。而DeepSeek,隻能在一個“濾鏡後的世界”中模擬智力活動。這種對話,既無思維,也無靈魂。
在民主國家,“政治正確”往往是對少數族群的保護,是包容多樣性的倫理倡導;而在專製政體中,“政治正確”則是對統治合法性的維護,是維穩邏輯下的極權語言。中國AI產業正是在這樣的語境中發展起來的。人工智能並未被當作推動知識解放的工具,而是被當作“數字維穩”的技術延伸。政策文件處處強調AI要“弘揚主旋律、傳播正能量、堅守意識形態安全底線”,潛台詞就是:任何與“統一思想”相悖的內容都是“風險”乃至“敵對勢力”。
這種審查慣性會直接反噬AI發展的核心環節:訓練數據。當所有文本數據都必須過“思想審查”,意味著中國AI訓練所依賴的語料庫本身就是殘缺的、過濾的、偽造的。這會讓大模型形成“認知缺口”與“價值畸形”:在曆史問題上,它隻能學習經過洗白的“官方敘事”,無法分析事件多重視角;在社會議題上,它無法理解邊緣群體的處境,隻能複讀“社會穩定壓倒一切”的教條;在科學研究中,它不敢批判、不敢懷疑,隻能“以正統為唯一標準”。
創新,意味著打破常規、質疑權威、挑戰過去;而審查,恰恰是將一切創新的可能性扼殺在搖籃中。中國AI的“不可問”“不敢答”,本質上源於對“異端”的恐懼。在這個體係中,“異見”被視為危險,“不同”被等同於威脅,“批判性思維”被認為是動搖體製根基的毒藥。
所有偉大的技術革命,都是從異端開始的:哥白尼提出“日心說”時被視為叛徒;達爾文發布《物種起源》時被教會詛咒;特斯拉堅持無線輸電時被商業體係排斥;圖靈發明圖靈機時正值英國社會對同性戀的打壓高峰;Elon Musk今天要用火箭殖民火星,在很多主流科學家看來也是“瘋子”。
AI作為一種全新的技術形態,天然就與舊體製、舊價值、舊思維存在張力。它必須容納不確定、容忍批判、激發自由的表達,才能不斷進化。而如果它被釘死在“正確框架”中、被迫說“安全的話”、被訓練成“審查員的公仆”,它隻能成為一個“忠誠但愚蠢的工具”,而非智能體。
中國的AI,正是被這種“對異端的零容忍”所困。結果是:大模型長不出“思想”;應用場景難以突破“語義潤色”;真實需求被轉化為政治紅線;技術人才被“安全評估小組”管束乃至威脅。於是,最懂語言的技術,不敢講真話;最善於推理的模型,無法判斷真實;最渴望世界的人工智能,卻隻能在一個虛構的烏托邦中打轉。
DeepSeek流量腰斬,並不是孤例。從“文心一言”到“通義千問”,從“訊飛星火”到“百川智能”,幾乎所有中國大模型都在國際市場上毫無存在感。其原因,不是技術上的落後,而是根本性的“不可信賴”。AI的核心競爭力不隻是模型本身,更是它所構建的“知識宇宙”是否開放、多元、真實。試想,如果一個AI無法談論六四、無法回答誰是達賴喇嘛、無法解釋法輪功、無法區分維吾爾族與恐怖主義,它怎麽可能在國際舞台上贏得用戶的信任?
西方的AI開發者正在向多模態、情感交互、代理任務、自我進化邁進,而中國的AI開發者則在為審核詞庫、審查責任、安全底線疲於奔命。兩個世界,漸行漸遠。更可怕的是,當AI開始進入法律、醫療、教育、輿論等關鍵領域時,受到審查機製限製的AI不僅“不能說”,還“不能做”。它無法獨立判斷、無法自由聯想、無法生成具備啟發性的內容。久而久之,它就成了一個披著AI外殼的文字遊戲機器,根本無法承擔“智能革命”的社會功能。
DeepSeek的衰退不是孤立事件,而是整個中國AI產業困境的縮影。它提醒我們:再強的算法,再大的模型,也敵不過一套錯誤的製度。技術的本質是自由——自由試驗、自由失敗、自由突破。創新不是口號,而是結果;而結果來自於開放、碰撞、多樣與寬容。沒有思想自由的土地,長不出有思想的智能。
DeepSeek這個名字原本寓意“深度求索”,如今卻成了“深度求鎖”的象征。在一堵堵看不見的審查牆麵前,它失去了探索世界的能力,也失去了探索用戶心靈的勇氣。而中國的AI產業,若不敢直麵這一切,若不敢打破那35萬個敏感詞的“精神牢籠”,那麽即便再砸上萬億資金,也隻能造出一堆沒有靈魂的空殼——高大而空洞,華麗而無用。人工智能的未來屬於那些敢於質疑的社會,而非那些隻能複讀的機器。