凸子塵報:柯文哲、Altman 和 Instability
This weekend is broken by two news. In Taiwan, Ko P broke the deal with KMT on joining forces in the upcoming election, for a dispute on how to interpret statistical data. In California, the four members of five-member board at OpenAI fired Sam Altman, its founder and CEO, due to their concern of the technology's safety over utility.
說說這個周末的兩件娛樂價值超高,對人類的未來可能影響巨大的事件。一件事,可能給台海局勢增添了巨大變數,甚至可能給歐亞板塊上再添一處戰火。另一件事,讓AI熱潮中的人們快速冷靜下來,關於AI安全的擔憂變得觸手可及了。
第一件,統計學讓民眾黨國民黨臨近破局。
這周末,台灣2024競選進入白熱化階段,藍、白、綠三黨角逐總統職位,引發社會廣泛關注。然而,與以往大選不同的是,這一次藍、白兩黨決定聯合競選,但卻因統計誤差的不同理解而在總統、副總統人選上產生爭議。
藍、白兩黨原本打算攜手共進,通過民調解決聯合競選的總統和副總統人選。民眾(白)黨候選人柯文哲在考慮自身小黨人員和資源有限的前提下,願意讓出民調的統計誤差。這一機製旨在通過公正客觀的手段確定最適合領導台灣的人選。然而,當民調結果揭曉後,柯文哲卻對統計誤差的理解提出異議,使整個選舉進程陷入了一場數學博弈。
對於符合時間條件的九項民調結果,有三項僅限於單一渠道(市話或短信)而被剔除。剩下六項民調中,按事先約定的民眾黨柯文哲讓出統計誤差的條件,統計誤差應為常見的Confidence 95% 抽樣約1000人的 ±3%,雙方各3:3平手。於是白方提出統計誤差±1.5%(Confidence 84% ,1000人 ), 5:1柯-侯勝。而藍方提出統計誤差±6.0%(Confidence 幾乎100% ,1000人 ), 5:1侯-柯勝。按原本約定這是爭執的藍白雙方的差異。
據說這個周末的台灣人都在翻查統計課本或者在Google統計學知識了。但這一爭議讓我想到書數學之外的現實。在一個數學水平普遍較高的台灣社會,人們會以精確的數理邏輯來爭論政治議題,而不是以通用合理的方式解決分歧。台灣人的數學功底當然紮實。然而,在這種數學分析的光環下,卻揭示出由高知識水平帶來的高爭議性。
雖然台灣人的數學水平令人矚目,但在政治決策上仍然難以達成共識。這或許是因為,政治決策涉及更多主觀因素,而數學本來就不是解決政治問題的有效手段。人們在運用自身數學知識時,可能受到個人立場和黨派觀念的影響,使得對同一組數據的解讀產生截然不同的結論。
這一事件引發的思考是,盡管社會普遍具備高水平的數學素養,但在政治問題上仍然麵臨著在短期內達成穩定共識的困境。在這種情況下,建設一個真正穩定成熟的民主體製,也許要更長的時間和耐心。短期內,高知識水平的社會可能因對於細節的過度關注而導致政治決策的波動,需要更多的溝通和理解,以建設一個更加和諧、公正的社會。
第二件,AI道德使董事會管理層事實分野。
美國時間周五,OpenAI公司的CEO Sam Altman意外被董事會解雇,引發業內廣泛關注。據悉,解雇的原因是Altman堅持將公司主力集中在繼續開發更強大競爭力的AI工具。而與之不同的是,以非盈利為目的的董事會認為,公司應當立即集中精力提高AI安全性方麵的技術開發。這一決定讓業界陷入對AI未來發展方向的深刻思考。
Sam Altman一直以來是AI領域的傑出領導者。作為OpenAI的創始人和CEO,他的願景和決心使得OpenAI在推動AI技術發展方麵取得了顯著成就。然而,與董事會的分歧使得他在不知情的情況下被開除。Altman主張持續推進更強大的AI工具的開發,在他的4年的掌舵下,OpenAI 將生成式AI工具從GPT-2.0帶進4.0的階段。Chat-GPT 的麵市,也給世界帶來了一輪大模型熱潮。他看到AI技術的巨大潛力,相信通過不斷創新可以為人類帶來更多福祉。
然而,由喬治城大學科學家、Quora CEO等組成的董事會的決定,體現了對AI技術安全性的極度擔憂。董事Helen Toner本人就是喬治城大學新技術安全中心的主任。董事會認為,在追求更強大的AI同時,必須更加注重防範潛在的風險,確保AI的發展不會對人類社會帶來不可逆的傷害。正是這個原因,讓如日中天的Altman在不知情的情況下,突然被通知離職。
然而,Altman的離任可能帶來公司內部的不穩定因素。據悉,有高達40%的員工在考慮離職,在不安的氛圍給公司帶來了極大的壓力。在這一背景下,董事會正考慮將Altman請回來,但可能是臨時的或者兼職性的,因為Altman已經在考慮退出一個新的AI創業項目了。Altman是由臨時CEO Mira Murati請回公司總部和員工見麵的。這看來是對公司穩定的一種應急之策,以期緩解員工的不安情緒。
這一事件映射出AI領域目前所麵臨的一種困境:是繼續追求技術的極限,還是在技術發展的同時確保其安全性?這並非是一道簡單的選擇題,而是需要在技術、倫理和社會責任之間取得平衡的複雜議題。在Altman離任後,OpenAI將進入一個新的發展階段。人們對於新任領導者的期望以及公司未來的發展方向,都充滿了疑問。但很清楚的是,AI技術的安全性問題,不僅僅是誰來領導某個公司,而是以什麽樣的、清晰的原則來指導所有的AI發展。AI不是核武器,它比核武器的毀滅性更大。
民主與AI:人類社會的高度不穩定性
台灣年輕的民主製度和AI技術的高速發展成為全球焦點。這兩者在表麵上可能看似獨立,但它們的交織,標誌了人類社會進入了高度不穩定的時刻。從社會組織方式到技術發展角度,人類社會正必然經曆一場全麵的變革。
首先,台灣年輕的民主體係正在經曆一場考驗。雖然年輕,但台灣的民主製度一直被認為是充滿活力。然而,近期的政治紛爭表明,年輕的民主體係可能更容易受到各種挑戰和壓力。一個拿不到簡單多數支持的政黨,居然能合法地一黨執政。這使得我們必須重新審視民主製度的彈性和適應性。
與此同時,全球範圍內AI技術的高速發展也給人們帶來了新的挑戰。隨著自動化、人工智能和大數據的普及,我們看到了社會結構、勞動力市場和隱私安全等方麵的深刻變革。AI技術的迅速滲透正在顛覆傳統的經濟和社會模式,這不僅帶來了無限的創新可能,同時也催生了新的不確定性和安全隱患。
全球社會正陷入一種前所未有的不穩定期。民主體係麵臨的挑戰,不僅在於台灣今天的大選,疫情期間的社會混亂還曆曆在目。人類需要重新思考傳統的治理方式,以更好地適應當今快速變化的社會需求。AI技術的高速發展,更迫使我們審視技術對社會管理製式的影響,確保其發展方向是符合人類共同利益的。
在尤瓦爾赫拉利的洞察中,人類之所以能成為地球上最為成功的物種,乃因我們有能力在虛擬故事的基礎上構建共同價值觀,並以此作為協調和管理上億人活動的動力。然而,如今隨著社會現實高速發展,舊有的故事體係愈發顯得不適用。台灣年輕民主所麵臨的尷尬,以及AI發展中的技術和安全的矛盾,也正是現階段人類社會矛盾的縮影。或許人類能夠找到全新的故事體係,從而構造更為協調、可持續的未來。
赫拉利認為,在新的體係之下,國家作為舊的故事體係的核心概念,也許已經不複其合理性了。