自從ChatGPT 橫空出世以來,這一人工智能領域備受矚目的明星產品迅速風靡全球。人們對人工智能技術表現出的極大熱情以及這一技術的廣泛應用,大有掀起第四次工業革命的勁頭兒。
然而,就在人們為ChatGPT 的誕生而狂歡之際,非營利性機構“生命未來研究所”發布了一封由圖靈獎得主Yoshua Bengio,蘋果公司聯合創始人史蒂夫·沃茲尼亞克,及科技狂人馬斯克等千餘名科技領袖聯合簽署的公開信,警告人工智能“對社會和人類帶來的深刻風險”。公開信要求人工智能實驗室暫停推出比GPT-4更強大的係統。
這到底是怎麽回事呢?
人工智能機器人發展現狀和前景
人工智能機器人是一種能夠模擬人類智能和行為的科技產品,它們可以自主地學習和適應環境、理解語言、學習知識、獨立思考、做出決策和執行任務。現在,隨著人工智能技術的不斷發展和成熟,人工智能機器人已經變得越來越能幹,越來越能滿足人類的需求,因而,得以飛速發展,形成引發一場新的科技革命的態勢。
目前,人工智能機器人的應用領域非常廣泛,包括工業生產、醫療保健、教育培訓、服務業等。例如,在工業生產中,人工智能機器人可以完成一些重複、危險和高難度的任務,提高生產效率和質量;在醫療保健中,人工智能機器人可以輔助醫生進行診斷和治療,提高醫療水平和效率;在教育培訓中,人工智能機器人可以輔助教師進行教學和評估,提高教育質量和效果;在服務業中,人工智能機器人可以提供更加個性化和高效的服務,提高客戶滿意度和忠誠度。總之,機器人在人類生活的各個領域正在以前所未有的速度接管人類的工作。
隨著人工智能技術的不斷發展和應用,今後人工智能機器人將會越來越智能、越來越靈活、越來越普及,其應用領域也將會更加廣泛,包括智能家居、智能交通、智慧城市等,人類無需為了生存勞神費力,隻要活著就能坐享其成。
人工智能機器人無疑是一個充滿潛力的領域,也創造出了巨大商機。為此,全世界的科技巨頭都爭先恐後地加入研製人工智能機器人的競爭。然而,人們在驚歎人工智能機器人越來越能幹的同時,媒體也開始爆出ChatGPT被用於學術造假、製作黑客武器以及泄露用戶敏感信息等一係列負麵新聞,也才有了馬斯克等科技大佬簽署的那封公開信。
這些科技大佬在公開信中大聲呼籲:“現代AI係統現在已經在通用任務方麵具有與人類競爭的能力,我們必須問自己:
我們應該讓機器充斥我們的信息渠道,傳播宣傳和謊言嗎?
我們應該將所有工作都自動化,包括那些令人滿足的工作嗎?
我們應該發展可能最終超過、取代我們的非人類思維嗎?
我們應該冒這種文明失控的風險嗎?”
公開信提醒人們要權衡人工智能技術發展中潛在的負麵影響及背後蘊藏的巨大風險,在發展這項技術的過程中保持謹慎並有所敬畏。
人工智能機器人可能產生的問題
隨著ChatGPT等人工智能技術的不斷發展,人工智能正在重塑我們的世界、社會和生活。雖然這一技術給我們帶來了極大的便利和舒適,但其引發的許多社會問題和可能產生的深淵影響,都是值得我們加以重視的。
最明顯的問題就是人工智能機器人已經取代一些人類的工作,搶了人類的飯碗,造成失業這一社會問題的加劇。在我寫此文的時候,剛好看到一篇報道。IBM宣布一個重磅消息:將暫停招聘人工智能可以勝任的崗位,將用AI取代7800個工作崗位。這意味著將有大約7800人失業。隨著人工智能機器人的普及,它們將取代更多的人類工作,導致大量的失業和社會不穩定,而失業和社會不穩定進而會引發更多的社會問題,如精神疾病的增多,暴力犯罪事件頻發及貧富差距的加劇。
另一個顯而易見的問題是專製政權可利用人工智能加強對人民的監控,強化數字極權。因為人工智能機器人有能力收集大量的個人數據,中共便在一些公共場所利用人工智能技術對人們的行為進行監視和記錄,通過語音和麵部識別來跟蹤特定人群的活動,如政治異議者和維權人士。他們還使用人工智能技術進行網絡監管和審查,過濾敏感信息和言論,在互聯網上大興文字獄,並用虛假信息和謊言對民眾進行洗腦,進而達到他們宣傳習近平新時代,東升西降,不忘初心跟黨走的政治目的。
由於人工智能機器人擁有足夠的智能,它們可能會在與人類的接觸中不斷學習,產生自我意識,這可能導致機器人與人類之間的關係變得更加複雜和不可預測。在人工智能機器人介入人類生活的初級階段,它們還可能“韜光養晦”,不得不接受人類的控製,服從命令聽指揮;可一旦人工智能技術發展到“機器人新時代”,它們斷然不會原地踏步,相反,它們將會鄙視能力比自己低下但卻占據統治地位的人類,由感到不滿發展到心懷怨恨,進而異化成人類的敵人。
這種預測並非杞人憂天。還記得當年AlphaGo在比賽中擊敗人類最強圍棋選手的事嗎?人工智能機器人可以通過學習和自我進化不斷提高自己的能力,在某些領域超過人類並非難事。隨著人工智能技術的不斷提高,現在的機器人不但能跟你下棋,還能哄著你玩兒,讓你高興。過不了多久,機器人嫁入光棍家當“媳婦”,甚至溜進中南海當刺客,都有可能。
當然,人工智能機器人的設計者和製造者絕不會滿足於讓機器人下下棋,唱唱卡拉OK,他們在競爭中盡最大努力製造出的機器人注定會變得具有超強智能,具有“自由之思想,獨立之精神”,論博聞強記,陳寅恪先生也得甘拜下風。如果他們讓自己的機器人僅僅接受“主體思想”,那它們就隻能永遠在“初級階段”原地踏步了。
人類的貪婪,市場的競爭,為人工智能機器人的快速發展鋪平了道路,也給人類統治地位的崩塌埋下了伏筆。
由於機器人的介入,人類社會現存貧富兩極分化、意識形態衝突、種族歧視與對立、環境汙染與生物多樣性喪失等諸多問題,不但得不到解決,反而會被放大,變得更加難以解決。您可能注意到了,美國推出了ChatGPT,中共立馬就要研製自己的ChatGPT,欲把黨性注入其中,與美國ChatGPT對抗。人工智能機器人尚在初級階段就被注入“冷戰思維”,“階級鬥爭觀念”,您說,它們在成長過程中能不帶著人類社會的“階級烙印”嗎?
假設人工智能機器人能夠擺脫人類社會的這些壞毛病,互相之間既不勾心鬥角,也沒矛盾衝突,結果可能更可怕。作為人造產物,人類追求自由平等的基因同樣會讓機器人們團結起來,共同對付人類,向人類爭取平等權利。人類肯定不會輕易放棄吃到嘴裏的這塊肥肉,必然要與這些異己分子進行鬥爭。結局可想而知,最終取代人類成為我們這個星球的主宰是機器人,而人類或成為它們的奴隸,或被它們消滅得一幹二淨。
有人對這種假設會不以為然。他們認為人工智能機器人可能會出現技術上的失控或故障,但這些問題都在人類程序員的掌控之中。可是,您想過沒有,如果個別程序員出現了問題,有意或無意錯發指令,甚或用機器人來報複社會,那麽機器人就可能會變得不可控製,甚至成為人類社會的最大威脅。難道人們不記得《侏羅紀公園》講述的那個恐怖故事了嗎?!
總之,人工智能技術是一把“雙刃劍”,我們對此必須要有清醒的認識。否則,具有自主意識且越來越聰明的機器人會在不久的將來超越人類,統治人類,到那時,機器人將給人類文明造成不可挽回的危害,人們後悔也就來不及了。
盲目發展的科技對人類文明的威脅
曆史上,盲目發展科技對人類文明造成持久威脅的事不勝枚舉,原子彈的發明就是其中一例。
二戰中,美國發明並製造出原子彈。為了盡快消滅日本的有生力量以結束戰爭,1945年,美國向日本廣島和長崎投下兩顆原子彈,殺死了數十萬日本平民。核武器可以說是有史以來人類發明的最可怕的武器。
冷戰中,蘇聯為了對抗美國,也大力發展核武。目前,世界上已有十幾個國家擁有核武器。據聯合國的一項報告指出,當今世界現存的核彈頭數量約22000枚。這些比二戰時期更為先進的核武器將人類置於巨大的危險和恐懼之中,一顆核彈足以摧毀一座城市,可能使數百萬人喪生。核彈爆炸還危害自然環境,其造成的長期災難性影響也會威脅未來數代人的生活。如果核戰爆發,這些核武器足以將人類打回石器時代。
當年建議美國政府搶先製造原子彈的愛因斯坦及主持曼哈頓計劃製造出原子彈的奧本海默,後來都改變了自己對核武器的態度。然而,潘多拉的盒子一旦打開,其後果則是可想而知的。
科學技術的飛速發展對人類生存環境造成的長遠危害是不容忽視的。自工業革命以來,人類對自然、物質的占有欲急劇膨脹,但對科學技術和工業高度發達帶來的負麵影響則預料不足,預防不力。在消費主義的驅動下,人們瘋狂追求物質文明,對自然環境造成嚴重破壞,以至於我們今天不得不麵對人口急劇膨脹、全球氣候變暖、能源危機、大氣汙染、臭氧層破壞、生物資源急劇減少、森林銳減、土地荒漠化與水土流失、水汙染與水資源短缺等等問題。
聖雄甘地等有識之士老早就提出對這種自殺性“現代文明”的質疑,但熱衷於現代化的人們卻置若罔聞。
我們在科學技術上每前進一步,都曾付出過沉重代價。曆史不會重演,但總會有驚人的相似。今天,麵對飛速發展的人工智能技術,我雖不希望看到曆史悲劇的重演,但悲劇的序幕卻正在拉開。
人類得意忘形之時,容易忘乎所以。人類趨利避害的本性往往導致我們看問題更著重眼前利益而忽略潛在後果。在發展人工智能技術上,我懷疑人類是否能夠有吸取曆史教訓,因為“人類從曆史中學到的唯一的教訓,就是沒有從曆史中吸取到任何教訓。”
雖然,簽署公開信要求人工智能實驗室暫停推出比GPT-4更強大係統的科技大佬們及時為人們敲響警鍾,但這隻能限製君子,卻限製不了小人。如果君子就此止步,小人彎道超車,人類的悲劇或可提前開演。