包括OpenAI和穀歌Deepmind負責人在內的專家警告,人工智能可能導致人類滅絕,但是機器如何取代人類呢?
自2022年11月推出以來,ChatGPT——一款使用人工智能根據用戶的需求回答問題或生成文本甚至代碼的聊天機器人,已經成為曆史上增長最快的互聯網應用程序。
在僅兩個月的時間裏,它的活躍用戶達到了1億。據科技監測公司Sensor
Town稱,Instagram花了兩年半的時間才達到這一裏程碑。
圖像來源,REUTERS ,ChatGPT應用程序的出現引發了關於如何確保人工智能安全的激烈爭論。
OpenAI公司在微軟的資助下開發的ChatGPT廣受歡迎,引發了人們對人工智能影響人類未來的激烈猜測。
數十名專家支持在人工智能安全中心(Center for AI
Safety)網頁上發表的一份聲明,稱:“減輕人工智能造成的滅絕風險,應該與流行病和核戰爭等其他社會規模的風險一起成為全球優先事項。”
但也有人表示,這種擔憂被誇大了。
圖像來源,GETTY IMAGES
模仿人類
ChatGPT、DALL-E、Bard和AlphaCode等人工智能產出的文本(從散文、詩歌和笑話到計算機代碼)和圖像(如圖表、照片和藝術品),幾乎與人類自己的作品一模一樣,難以區分。學生們用它來寫作業,政客們用它來寫演講稿。民主黨眾議員傑克·奧金克洛斯(Jake Auchincloss)在美國國會推出了這一資源。
科技巨頭IBM稱,將停止招聘7800個可以由人工智能處理的崗位。
如果所有這些變化讓你不知所措,那就做好準備:
圖像來源,GETTY IMAGES ,人工智能越先進,就越有能力取代我們的工作。
我們還隻是處於人工智能的第一階段,還有兩個階段即將到來,一些科學家害怕這可能會威脅到人類的生存。
以下是三個階段。
1. 弱人工智能(Artificial Narrow Intelligence)
弱人工智能也被稱為限製領域人工智能,專注於單一任務,在一係列功能中執行重複性工作。它通常從大量數據中學習,比如從互聯網上學習,但隻在它被編程的特定領域學習。
一個例子是象棋程序,能夠擊敗世界冠軍,但無法執行其他任務。
圖像來源,GETTY IMAGES ,弱人工智能可以超越人類,但隻在特定領域。
智能手機上到處都是使用這種技術的應用程序,從GPS地圖,到了解你的口味並提出建議的音樂和視頻程序。
甚至更複雜的係統,如無人駕駛汽車和ChatGPT,都是弱人工智能的形式。他們不能在設定的角色範圍之外運作,所以不能靠自己做決定。
但一些專家認為,被編程為具有自動學習功能的係統,如ChatGPT或AutoGPT,可能會進入下一個發展階段。
圖像來源,GETTY IMAGES ,2023年5月27日,中國廣東省深圳的ChatGPT應用下載界麵。
2. 人工通用智能(Artificial General Intelligence)
當機器能夠完成人類所能完成的任何智力任務時,人工通用智能(Artificial General Intelligence)就將到來。圖像來源,GETTY IMAGES ,通用人工智能是指機器擁有與人類相同的智力能力。
它也被稱為“強人工智能”。
6個月的暫停。
2023年3月,1000多名技術專家呼籲“所有人工智能實驗室立即暫停至少6個月的比GPT-4更強大的人工智能係統的訓練”,GPT-4是ChatGPT的最新版本。
包括蘋果聯合創始人斯蒂夫·沃茲尼亞克以及包括特斯拉和SpaceX公司老板埃隆·馬斯克在內的其他科技巨頭寫道:“具有與人類競爭智力的人工智能係統可能對社會和人類構成深刻的風險。”馬斯克曾是OpenAI的聯合創始人之一,後來因與公司領導層意見不合而辭去了董事會職務。
圖像來源,GETTY IMAGES
在這封由非營利機構“生命未來研究所”(Future of Life Institute)發布的信中,專家們表示,如果公司拒絕迅速停止它們的項目,“政府應該介入並實施暫停令”,以便設計和實施安全措施。
“既聰明又愚蠢”
牛津大學人工智能倫理研究所的卡麗莎·韋麗茲(Carissa Véliz)在這封信上簽了名。但她認為,人工智能安全中心後來發布的警告滅絕的聲明太過了,因此決定不簽署。
“我們目前正在開發的這種人工智能既聰明又愚蠢,”她告訴BBC的安德魯·韋伯(Andrew Webb),“如果有人嚐試過ChatGPT或其他人工智能,他們會注意到它們有非常顯著的局限性。”
韋麗茲表示,她擔心人工智能會以極高的速度製造錯誤信息。
“隨著2024年美國大選臨近,像推特和其他重要平台解雇了他們的人工智能道德和安全團隊,我更擔心這一點。”
圖像來源,GETTY IMAGES
美國政府承認潛在的威脅。白宮在5月4日的一份聲明中稱:“人工智能是我們這個時代最強大的技術之一,但為了抓住它帶來的機遇,我們必須先降低它的風險。”
美國國會曾傳喚OpenAI首席執行官山姆·阿爾特曼(Sam Altman)回答有關ChatGPT的問題。
圖像來源,GETTY IMAGES ,山姆·阿爾特曼
在參議院聽證會上,阿爾特曼表示,隨著人工智能的發展,政府對他的行業進行監管是“非常重要的”。
生命未來研究所的公共政策研究員古鐵雷斯(Carlos Ignacio Gutiérrez)對BBC解釋,人工智能帶來的巨大挑戰之一是,“沒有一個由專家組成的聯合機構來決定如何監管它,就像政府間氣候變化專門委員會(IPCC)那樣。”
這就把我們帶到了人工智能的第三個也是最後一個階段。
3. 超人工智能
圖像來源,GETTY IMAGES
這是一種理論,當我們到達第二階段時,我們將很快進入最後階段:“超人工智能”。當人工智能超過人類智能時,就會出現這種情況。
牛津大學哲學家、人工智能專家博斯特羅姆(Nick Bostrom)將超智能定義為“在幾乎所有領域,包括科學創造力、一般智慧和社交技能,都遠遠超過最優秀的人類大腦的智能”。
“人類要成為工程師、護士或律師,必須學習很長時間。通用人工智能的問題在於……它可以在我們做不到的時候不斷改進自己,”古鐵雷斯解釋說。
科幻小說。
這個概念讓人想起了電影《終結者》的情節,在這部電影中,機器發動了一場毀滅人類的核戰爭。
圖像來源,GETTY IMAGES ,施瓦辛格曾出演《終結者》。
普林斯頓大學的計算機科學家納拉亞南(Arvind Narayanan)此前曾告訴BBC,科幻般的災難場景是不現實的:“目前的人工智能還遠遠不足以讓這些風險成為現實。最後,它分散了人們對人工智能短期危害的注意力。”
雖然對於機器是否真的能獲得人類擁有的那種廣泛的智能,尤其是在情商方麵,存在很多爭論,但這是那些認為我們即將實現通用人工智能的人最擔心的事情之一。
最近,所謂的“人工智能教父”傑弗裏·欣頓(Geoffrey Hinton)警告,我們可能即將達到這一裏程碑。欣頓是教授機器從經驗中學習的先驅。
“我認為,現在(機器)並不比我們聰明。但我認為他們可能很快就會這樣,”他剛剛從穀歌退休,今年75歲。
圖像來源,REUTERS ,"人工智能教父"傑弗裏·欣頓
欣頓在發給《紐約時報》的一份宣布離開穀歌的聲明中表示,他現在對自己所做的工作感到後悔,因為他擔心“糟糕的參與者”會利用人工智能做“壞事”。
他給BBC舉了一個“噩夢場景”一般的例子:“想象一下,例如,像(俄羅斯總統)普京這樣的糟糕參與者決定賦予機器人能力,創造自己的子目標。”
他警告說,這些機器最終可能會“創造出‘我需要更多權力’這樣的子目標”,這將帶來“生存風險”。
但欣頓表示,在短期內,他認為人工智能帶來的好處要比風險大得多,“所以我認為我們不應該停止開發這種東西。”他說。
滅絕還是不朽
英國物理學家斯蒂芬·霍金發出過嚴厲的警告。圖像來源,GETTY IMAGES ,霍金
“人工智能的全麵發展可能意味著人類的終結,”他在2014年告訴BBC,也就是他去世前四年。
他說,具有這種智能水平的機器“將自行發展,並以越來越快的速度重新設計自己”。
納米機器人與永生
未來主義發明家兼作家庫茲韋爾(Ray Kurzweil)是人工智能的最大愛好者之一,他是穀歌的人工智能研究員,也是矽穀奇點大學的聯合創始人。庫茲韋爾認為,人類將能夠使用超級智能的人工智能來克服生物障礙。
2015年,他預測,到2030年,因為納米機器人(非常小的機器人)在我們體內工作,能夠修複和治愈任何損傷或疾病,人類將實現永生。
圖像來源,GETTY IMAGES ,納米機器人能讓人類長壽或長生不老嗎?
人工智能管理
古鐵雷斯同意,關鍵是要創建一個人工智能治理係統。“想象一下這樣的未來:一個實體擁有地球上每個人及其習慣的大量信息(因為互聯網搜索),它可以用我們無法意識到的方式控製我們。”他說。
“最糟糕的場景並不是人類與機器人之間的戰爭。最糟糕的是,我們沒有意識到自己被操縱了,因為我們與一個比我們聰明得多的實體分享這個星球。”