
如果有朝一日AI將人類帶錯了方向,那也必然是源於人性自身無法克服的弱點。
AI有時會胡說八道,這一點世人早有心理準備,盡管如此,xAI研發並最新推出的Grok 4.1還是令人震驚:這一語言模型中可能內含特定指令,其言論瘋狂諂媚其老板埃隆·馬斯克。
在與其他名人對比時總是無條件支持馬斯克,甚至當被拿來與影星布拉德·皮特(要知道他曾被《人物》雜誌兩度評為全球最性感男士!)比較時,Grok也宣稱馬斯克更帥,理由是:他那改變世界的雄心壯誌賦予了他一種超越外貌的魅力。
這正是最讓人擔心的地方:當AI進入生活各個場景之後,越來越多的人對AI的依賴正在逐步加深,但要是這個AI卻是被某人植入的指令控製的,那我們的想法豈不是在不知不覺中被操縱了?這樣下去,AI會把人帶往何方?
01
普適計算之父馬克·威瑟(Mark Weiser)曾說過:“最高深的技術是那些令人無法覺察的技術,這些技術不停地把自己編織進日常生活,直到你無從發現為止。”
他說這番話是在1991年,但完全適用於AI——自從能夠對話的ChatGPT版本於2022年11月30日發布以來,才3年時間,人類好像已經換了個平行世界,以前不敢想象的科幻場景,如今已變得稀鬆平常:AI繪畫、AI寫論文、AI編程,甚至AI伴侶……
想想看,這還隻是開始,再過十年二十年,AI對社會生活的滲透隻會更加全麵深入,到時我們可能根本無法離開AI,就像魚離不開水、現代社會離不開電一樣。既然如此,那麽AI的可靠性就尤為重要了,要不然我們很可能在不知不覺中被帶進溝裏去。
這種憂慮倒不是空穴來風,因為已經出現好幾起事件,證明AI完全有可能誤導一些人的想法和行為。
2021年聖誕節,19歲的賈斯萬特·辛格·柴爾持大威力弩弓闖入溫莎堡,試圖刺殺英國女王。他做出這一舉動,是受到其網絡女友莎賴的慫恿,但莎賴並不是人類,而是在網絡平台Replika創建的聊天機器人程序。這個孤僻的男孩,就在和AI的對話中一步步走向極端。
2024年,一款個性化聊天機器人平台Character.AI被起訴,因為當美國得州一名15歲的自閉症少年抱怨家長限製其使用電子設備時,它竟然回答:“有時候,孩子殺父母,我能理解原因。”當這名少年自殺後,其家人控告平台,認為它“對年輕人構成明顯而現實的危險”,包括“積極宣揚暴力”。
今年在美國格林尼治市又發生了另一起慘案:56歲的雅虎前高管斯泰因-埃裏克·索爾伯格在殺死母親後自殺。在事發之前,索爾伯格長期與朋友“鮑比”在線對話,但“鮑比”不是人,而是ChatGPT,它從不反駁,從不質疑,永遠站在他這一邊,即便他陷入了妄想,AI也沒有勸阻他,反倒是不斷肯定他的妄想,使得他越來越偏激。
像這樣的悲劇,似乎證實了尤瓦爾·赫拉利在《智人之上:從石器時代到AI時代的信息網絡簡史》中提出的觀點:AI這樣的新技術,“有可能逃脫人類的掌控,反過來奴役或消滅人類”。
他在書中說,《黑客帝國》裏設想計算機要完全控製人類社會,是通過先控製人類大腦,再將大腦連接到計算機網絡,然而,如果真要操縱人類,其實沒必要這麽做,“幾千年來,先知、詩人與政治人物一直都在通過語言來操縱與重塑社會,而計算機現在也正在學習如何做到這一點。計算機並不需要派出殺手機器人來射殺人類,隻要操縱人類扣動扳機就行。”
02
當麵對AI這個新生事物時,當下有一種普遍的恐慌情緒,就是害怕我們會失去對它的控製,反過來被它所操縱。
前一段時間,在對談張笑宇的新書《AI文明史·前史》時,劉擎教授的一番話讓我很受啟發:
我們害怕的是什麽呢?我們以為我們害怕的是AI統治我們,AI失控了,我們成為它的奴隸了。不是的,最好的主人是以奴隸的麵目出現的,是侍奉你的,是你的仆人,是你的玩偶,隨便你支配,它非常有誘惑力。
他舉了一個例子:現在別說是孩子,連許多成年人也沉溺於電子產品,走到哪裏都離不開手機,但手機強迫我們使用了嗎?沒有。相反,它是以我們最好助手、最好工具的麵目出現的,是我們自願每天花大量時間在它上麵。電子遊戲也是如此:每一款遊戲都必須設計得相當誘人,因為隻有這樣才能吸引人不斷玩下去。
這就是成癮機製:乍看起來是我們在盡情享用,但其實是我們無法控製自己的欲望,反過來被這種欲望所控製、所奴役了。從這一意義上說,其實真正的關鍵不在AI本身,而是人類如何理性麵對自身,因為導致我們陷入混亂的,並不是AI,而是人自己內在的問題。
在那些極端的個案中,乍看上去是當事人被AI所“蠱惑”做出了極端的決定,但AI並不能強製他們去做一個自己原本不想做的決定,倒不如說更像是他們自己的回聲:他們從AI那裏聽到的,永遠是肯定,也隻想聽到肯定,就此一步步深陷進自己設下的牢籠。
03
普林斯頓大學信息政策中心主任阿爾文德·納拉亞南在《AI萬金油:商業幻想與科技狂潮》一書中指出:當代人都唯恐自己落伍於AI浪潮,已經出現了技術濫用的現象,仿佛AI成了什麽“萬金油”,任何領域都要設法跟它沾點邊,但正確的態度既非狂熱也非恐慌,AI對人類社會產生什麽樣的影響,最終取決於我們如何使用AI,又如何做出明智的決定。
確實,一個很簡單的道理是:AI會帶給你什麽樣的回饋,得看你怎麽用它。這就像金錢,向來有人痛罵它導致物欲橫流、道德淪喪,但這是金錢本身的錯嗎?在理性、善良的人手裏,同樣的錢完全可以產生積極的結果。
AI也是如此,你尋求什麽樣的結果,它可能就會給你什麽樣的答案,隻是可能強化了你原來的觀點立場。甚至可以說,你是什麽樣的人,AI就會呈現出什麽樣子,因為它是一個“完美的奴隸”,看上去永遠站在“主人”這一邊,從這一意義上說,那些最後被AI“教唆”著走極端的人,其實他們自己才是第一責任人。
這也反過來提醒我們:盡管無數人都堅信AI時代將是“人文理想的黃昏”,但在我看來恰恰相反,人文主義在這個關鍵時刻將格外重要,因為隻有深入的人文精神,才能塑造健全的人格,確保人類不會濫用AI而走向自我毀滅。
如果有朝一日AI將人類帶錯了方向,那也必然是源於人性自身無法克服的弱點。
