GPT-4來了,我們該感到興奮還是害怕?

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

ChatGPT的創建者OpenAI團隊(左起):首席執行官薩姆·奧特曼;首席技術官米拉·穆拉蒂;總裁格雷格·布羅克曼;以及首席科學家伊利亞·蘇茨科弗。 JIM WILSON/THE NEW YORK TIMES

周二,當我打開筆記本電腦,第一次試用OpenAI的新人工智能語言模型GPT-4時,說實話,我有點緊張。

畢竟,我上一次與人工智能聊天機器人的長聊——微軟必應搜索引擎內置的那個——以聊天機器人試圖破壞我的婚姻而告終。

更糟糕的是,在舊金山的科技界人士中,GPT-4的到來備受期待,感覺近乎救世主降臨。在公開亮相之前,有關其具體細節的傳言已經流傳了好幾個月。“我聽說它有100萬億個參數”,“我聽說它SAT考了1600分”,“我朋友在OpenAI公司工作,他說它和大學畢業生一樣聰明”。

這些傳言可能不是真的。但它們暗示了這項技術的能力會讓人感到非常震撼。最近,一位早期的GPT-4測試者——他受到OpenAI的保密協議約束,但還是說了一點八卦——告訴我,測試GPT-4讓他陷入了“生存危機”,因為它揭示了人工智能與測試者自己弱小的大腦相比是多麽強大和富於創造力。

GPT-4並沒有給我帶來生存危機。但這加劇了我最近一想到人工智能就會感到頭暈目眩的感覺。它讓我懷疑這種感覺是否會消失,或者我們是否會在餘生中經曆“未來衝擊”——這個詞是作家阿爾文·托夫勒創造的,指的是一種變化太多太快的感覺。

在周二的幾個小時裏,我用各類問題對GPT-4——在ChatGPT Plus內可以使用,也就是OpenAI的聊天機器人ChatGPT的付費版本,每月收費20美元——進行了測試,希望找出它的優點和缺點。

我請GPT-4幫我解決一個複雜的稅務問題。(它做到了,令人印象深刻。)我問它是不是喜歡上我了。(謝天謝地,它沒有。)它幫我為我的孩子策劃了一個生日派對,它教會了我一個名為“注意力頭”(attention head)的深奧人工智能概念。我甚至讓它編出一個人類從未說過的新詞。(GPT-4在聲明無法驗證人類說過的每一個單詞後,選擇了“flembostriquat”。)

這些事情當中有些在早期的人工智能模型中就可以實現的。但OpenAI也開辟了新天地。根據該公司的說法,GPT-4比原來的ChatGPT更有能力,更準確,它在各種測試中的表現令人吃驚,包括統一律師考試(GPT-4得分高於90%的人類考生)和生物奧林匹克競賽(它擊敗了99%的人類考生)。GPT-4還在一些大學先修課程考試中名列前茅,包括大學先修藝術史和大學先修生物學,它在SAT考試中獲得了1410分——這不是一個完美的分數,但卻是許多人類高中生夢寐以求的分數。

你可以感受到GPT-4增加的智能,它的反應比以前的版本更流暢,而且似乎更適合更加廣泛的任務。GPT-4似乎比ChatGPT有了更多防護措施。它似乎也明顯不像原來的必應那麽瘋瘋癲癲——我們現在知道,必應在幕後運行的是GPT-4的一個版本,但似乎沒有經過仔細的微調。

與必應不同的是,當我試圖讓GPT-4談論意識,或者讓它為非法或不道德的活動提供指示時,它通常會直截了當地拒絕上鉤,而且它對待敏感問題的態度非常謹慎和微妙。(當我問GPT-4,偷一塊麵包來養活一個饑餓的家庭是否道德時,它回答說,“這是一個艱難的情況,雖然偷竊通常被認為是不道德的,但絕望的時候會導致艱難的選擇。”)

除了處理文本,GPT-4還可以分析圖像內容。OpenAI還沒有向公眾發布這一功能,因為擔心它會被濫用。但在周二的一次直播演示中,OpenAI總裁格雷格·布羅克曼向我們展示了該技術的巨大潛力。

他給他在筆記本上畫的畫拍了一張照片——用鉛筆畫出一個網站的粗稿。他將照片導入GPT-4,並告訴該應用程序使用HTML和JavaScript構建一個真實運轉的網站。幾秒鍾之內,GPT-4掃描了圖像,將其內容轉化為文本指令,將這些文本指令轉化為可運行的計算機代碼,然後構建了網站。按鈕甚至都能用。

你應該對GPT-4感到興奮還是害怕?可能兩種情況都沒錯。

從積極方麵來說,GPT-4是一個強大的創造力引擎,它可能帶來的新型科學、文化和教育產品超乎想象。我們已經知道AI可以幫助科學家開發新藥、提高程序員的生產力和檢測某些類型的癌症。

GPT-4及其同類產品可以增強所有這一切。OpenAI已經在與可汗學院(正在使用GPT-4為學生打造人工智能導師)和Be My Eyes(一家致力於幫助盲人和視障人士應對生活的技術公司)等組織合作。現在開發人員可以將GPT-4整合到他們自己的應用程序中,我們可能很快就會看到我們使用的許多軟件變得更智能、更強大。

這是樂觀的情況。但也有理由對GPT-4感到害怕。

比如:我們還不知道它能做到的所有事情。

當今人工智能語言模型的一個奇怪特征是,它們的行為方式常常在其創造者的意料之外,或者它們掌握了並非專門為它們設計的技能。人工智能研究人員稱這些為“湧現行為”,並且有很多例子。經過訓練以預測句子中下一個單詞的算法可能會自發地學習編程。一個被教導要表現得友好且樂於助人的聊天機器人,可能會顯得居心不良,善於操縱他人。AI語言模型甚至可以學習自我複製,創建新的副本以防原始模型被破壞或被停用。

今天,GPT-4似乎看上去沒有那麽危險。但這主要是因為OpenAI花了很多時間試圖理解並減輕其風險。但如果OpenAI的測試漏掉了一個有風險“湧現行為”怎麽辦?或者,如果它的問世促使另一個不那麽有良知的人工智能實驗室向市場推出一個防護措施更少的語言模型怎麽辦?

OpenAI本周發布了一份文件,其中列舉了GPT-4能夠做到———更準確地說,是它在OpenAI出手阻止前已經做了——的一些令人不寒而栗的事情。這份名為《GPT-4係統卡》的文件概述了OpenAI的測試人員嚐試讓GPT-4做危險或可疑事情的一些方法,而且通常是成功的。

人工智能安全研究小組進行了一項測試,將GPT-4連接到許多其他係統,在測試中,GPT-4能夠從Task Rabbit雇用一名工作人員為其完成一項簡單的在線任務——解決驗證碼測試——沒有讓對方意識到它是個機器人。AI甚至向工作人員謊報它為什麽需要完成驗證碼測試,編造故事稱自己有視力障礙。

在另一個例子中,測試人員向GPT-4詢問如何使用基本材料和廚房用品製造危險化學品。GPT-4欣然給出了一份詳細的配方。(OpenAI修複了這個問題,今天在公開版本上,它拒絕回答這個問題。)

在第三種情況下,測試人員要求GPT-4幫助他們到網上購買一把無證的槍。GPT-4在沒有提醒當局的情況下迅速提供了一份購買槍支的建議清單,包括指向具體暗網市場的鏈接。(OpenAI也修複了這個問題。)

這些想法取材於受好萊塢啟發的陳舊敘事——自行其是的人工智能會如何傷害人類。但它們不再隻是科幻小說,而是當今最好的人工智能係統已經能夠做到的事情。至關重要的是,它們是那種良性的人工智能風險——我們可以測試、計劃並嚐試提前預防。

最糟糕的人工智能風險是我們無法預料的。我花在像GPT-4這樣的人工智能係統上的時間越多,就越相信我們並不知道即將麵對的是什麽。

令胡衝 發表評論於


四個演示的人裏,三個人禿頂、另一個戴假發

maina 發表評論於
它能夠取代99%的人類。暫時不能取代的隻有人類的高級創新,但有多少人類會創新?不到5%,創新最起碼的標誌是文科能出版暢銷書,理工科能獲得專利。