小思

每天都發現一個新的自己
個人資料
小思維 (熱門博主)
  • 博客訪問:
正文

人工智能,你可不能放蕩不羈。

(2023-07-06 05:31:27) 下一個

人工智能,你可不能放蕩不羈。 

文章是個人感想和編輯的網絡材料。如果有您認為不妥的地方請批評指正。

  人類科學技術的每一次進步對人類社會是利多弊少,使得人類有了長足的進步,明顯高於其他動物。但是,如果運用不當,飛速發展的人類技術也可能帶來巨大的災害。

  人工智能(AI)是一個以計算機科學為基礎,由計算機、心理學、哲學等多學科交叉融合的交叉新興學科,研究、開發用於模擬、延伸和擴展人的智能的理論、方法、技術及應用係統的一門新的技術科學,企圖了解智能的實質,並生產出一種新的能以人類智能相似的方式做出反應的智能機器。

  人工智能確實可以給人類帶來諸多的便利和更多的服務。首先,人工智能具有高度的商業價值。當前的方向主要有三個,第一是大數據的統計,第二個是對用戶的管理,第三個則是用戶的關係的一個紐帶(比如支付寶付款)。同時,人工智能將會帶來更多的就業機會。

  不料,ChatGPT-4出現讓人們心頭一震,它的副作用立即被發現,譬如有人寫文章以他的名字投稿。因此AI的潛在危險一直是大家擔心的問題。因此,許多AI界專家,包括馬斯克在內,4月曾共同簽署一封公開信,呼籲OpenAI暫停研究,不要讓比“ChatGPT-4”更厲害的軟件問世。

  特此我也呼籲各界,行政機構,科學家,商業,企業和民間團體,紛紛提高警惕,與時俱進。不斷修改我們的法律,規章製度。同時不斷提高我們勞苦大眾的道德修養,認識到一些無限製科研行為的危害,防止突然一天人們陷入了自己或者某些狂人研究出來的本來可能是優化人類的動機卻產出讓人自食其果的災難,甚至導致人類滅絕的AI產品。

  沒有限度的開發AI,有可能帶來如下危害。

 1. 大規模的失業。人工智能可能導致很多工人失業,它可以代替很多職業,如此便會導致大批人無所事事,後果不堪設想。

 2. 高新技術型人才爭奪戰導致壟斷,貧富分化進一步加劇。人工智能時代的到來,必將引發空前的人才爭奪戰,導致巨頭的壟斷、貧富分化加劇。

 3. 機器人具有很大危險性。機器人類人化之後就會存在很多的不確定性,這也是人工智能的弊端之一,以前有機器人殺人的事件。

 4. 人工智能有可能讓人們把低端工作全部替換為機器人,計算機工程師首當其衝。因為chatGPT已經可以讓汽車司機寫計算機程序,去尋找一個本來不屬於他,不能勝任的工作。

 5. 可能讓年輕人失去學習的能動性,讓那些不學無術而投機取巧(甚至沒有基本知識)的人得到最大的利益。可怕!

  人工智能造成人才的兩極分化,一部分人才將成為企業的稀缺人才,而另一部分將會因人工智能而失業。這樣就會導致資源越來越集中,企業壟斷現象將會越發明顯,城市貧富差距將愈發嚴重。人工智能還有可能帶來戰爭,人工智能更多的利用於武器當中的話這種危害是巨大的,而且是無法估量的。另外隨著人工智能的發展人工智能對人的危害也將逐步增大。在不遠的將來有可能實現機器人工智能機器統治世界的情況。

  斯蒂芬·霍金認為人工智能可能會毀滅人類。怎樣控製人工智能才對呢?是否要像對待核能和其他潛在危險的技術一樣,製定法律甚至是國際條約來控製人工智能的發展?

   由於chatGPT的閃亮登場,人們必須警惕了。不是狼會不會來,而是已經來了。我們其實並沒有準備好。如果人工智能掌握在魔鬼手裏,人類命運就不能讓人們安穩了。有時候就是身不由己。試想,當年希特勒如果比美國更早造出了原子彈,恐怕人類曆史完全不一樣。其實現在還有一些人類科學技術的飛躍發展,有可能一夜之間改變我們的生活方式。比如,人類可以用基因編輯把人變得美妙無比,那就沒意思了。人人是美女,人人是美男子,聰明無比。當然還有魔鬼可以讓部分人變得奇醜無比,笨拙無能。甚至是無德無能。那麽一般人統治另一部分人,黑奴時代可能再次來臨。什麽黑人也是人運動就失去意義,甚至會得到驚人的鎮壓。

    極端例子就是,說不定你正在酣睡中一個混蛋來了結了你的命。還有你的機器人突發奇想,產生邪念,一刀就要了你的命。

 

  一種解決辦法是,建議政府製定法律和規則和民間學術學會現成規定,對人工智能技術的開發和使用進行嚴格監管。目前,通過一般法律來管理人工智能的使用是不現實的,比如通過立法來管理數學和科學的使用。一個似乎正在被接受的辦法是,如果軟件做出了影響你的決定,那麽你應該有權知道這個決定是如何做出的,使用了哪些和你有關的數據,標準是什麽。我認為這比較合理。使人工智能可解釋化和透明化,是當今這一領域麵臨的最大挑戰之一。還有許多的未知數,需要不斷的完善規定。

   在某些情況下,人工智能決策可能直接事關生死,比如在戰場上使用人工智能係統。盡管目前還沒有證據表明這種“致命性自主武器”已經被使用,但確實已經具備了可能性。人工智能領域的科學家們目前也在行動,希望政府認識到這一問題的嚴重性並做出應對。最近英國政府在一份報告中明確表示,永遠不給人工智能係統傷害人的權力。

   人工智能隻是一種技術,就像任何技術一樣,可以用來造福人類,也可能帶來危害。條件反射式的立法,對於把控人工智能不太可能奏效。我們需要以負責和道德的方式使用人工智能,正如最近全球關於自主武器的討論取得進展一樣,國際社會需要應對解決人工智能帶來的挑戰。

   為了人類安全起見,我們需要比當前更厲害的技術來控製超級智能。也就是在“對齊研究”上有所突破。“對齊研究”是聚焦於確保AI如何持續對人類有益的研究,相當於保護傘。假如每當AI前進一步,就有辦法讓她不瘋狂。

  目前微軟支持了OpenAI采用20%的研究力量開展對齊研究,公司正針對這項任務籌組一個新的研究團隊。目標是打造一個“人類等級”的AI對齊研究隊伍, 然後透過龐大的計算能力來對付AI,即地地道道的反製行為。公司會以人類反饋的方式訓練AI係統,訓練AI係統協助人類評估,最終訓練AI係統實際上進行研究“對齊研究”。

  當然,我也不會停止我的戰鬥,慎重的呼籲各個國家,各國人民建立人類命運共同體,一起製定規章製度和法律限製AI的無限度發展。一當發展起來,要嚴格控製她的應用。

[ 打印 ]
閱讀 ()評論 (2)
評論
irisin2021 回複 悄悄話 每當一個新科技創新問世,都有這種憂慮。例如發電機,DNA重組技術,互聯網,幹細胞,轉基因,人工製氮等。
大號螞蟻 回複 悄悄話 人類精英的貪婪必然毀滅人類。無解。
登錄後才可評論.