國華的世界

這是國華對讀過的書, 看過的電視/電影, 聽過的音樂, 訪遊過的地方, 經曆過的事物, 和時事的感想或點評.
個人資料
國華P (熱門博主)
  • 博客訪問:
正文

有知覺的AI

(2022-09-02 07:58:24) 下一個

萊莫(Blake Lemoine 下圖 FORTUNE INSIGHT)還是給開了。六月初,擔任穀歌工程師的萊莫表示,這家科技巨頭創造了一個“有知覺的AI兒童”,並稱這個孩子可以逃跑並做“壞事”。穀歌稱他違反了公司保密政策,因此將他停職。在最近的一次采訪中,這位41歲的軟件專家將人工智能描述為“孩子”和“人”。他說:“任何孩子都有成長的潛力,都可能成為壞人,做壞事。” 萊莫稱這一人工智能軟件已經“存活”了大約一年。

本文中人工智能指的是穀歌的“對話應用語言模型”(LaMDA - The Language Model for Dialogue Applications 下圖 reddit)。萊莫說他幫助創建了這個軟件,他認為這個軟件的思想和感覺就像一個八歲的孩子。他告訴《華盛頓郵報》,如果不知道穀歌開發的這個計算機程序的話,“我會認為(它)是一個7歲、8歲的孩子,碰巧還懂物理。”作為穀歌這家搜索巨頭的高級軟件工程師,萊莫之前與合作者一起測試LaMDA。他們向穀歌副總裁亞卡斯(Blaise Agueray Arcas)和負責創新的根奈(Jen Gennai)提交了測試結果(包括他認為這是一個“有知覺的AI兒童”),但亞卡斯和根奈均駁回了他的令人毛骨悚然的說法。不僅堅持認為AI有知覺,萊莫還表示人工智能“有點自戀”,並聲稱它會閱讀關於自己的推文。是可忍孰不可忍。對穀歌高層來說,萊莫的言語太過出格。很快,萊莫就因違反公司保密政策,被穀歌執行帶薪行政假。不到倆月,又傳來他走人的消息。

穀歌發言人加布裏埃爾(Brian Gabriel)在一份聲明中表示,萊莫的擔憂已經得到審查,根據穀歌的人工智能原則,“證據不支持他的說法。……我們的團隊——包括倫理學家和技術專家——根據我們的人工智能原則審查了布雷克(萊莫)的擔憂,並告知他,證據不支持他的說法。…… 沒有證據表明LaMDA有知覺(而且有很多證據反對它)。”如果真的如此,為什麽萊莫這樣一位從事人工智能AI研發的高級軟件工程師會冒著失去工作的危險,毅然提出AI具有感知能力的“謬論”呢?是他走火入魔,抑或是人工智能AI真有類似人那樣的感知(下圖 AI Summary)?

前加州大學洛杉磯分校(UCLA)大腦研究所(Brain Research Institute)博士後研究員、現富勒神學院(Fuller Theological Seminary)心理學教授布朗(Warren S Brown)認為,靈魂是血肉之軀的個體之人與上帝(精神上的)遭遇的總和,是一種演生屬性(emergent property 下圖 YouTube)或是人類彼此之間的交往和溝通這些遭遇的總和。換句話說,一個人的所感所思所作所為就是我們所謂的靈魂。因此,“人工智能可能有靈魂嗎?”的提問應該改為“人工智能可能像我們一樣成為靈性行為體嗎?”

2008年耶魯大學研究人員的一項研究表明,你的想法、你的身體感受和你的情感感受都是相關的,不可能在它們之間劃上嚴格的界限。一些未來學學者和技術專家預言,在並不遙遠的未來,人工智能的發展將變得和人類幾無差別,成為真正的智能(下圖 POST&PARCEL)。到那時,人工智能很可能按照我們人類的方式,從情感、智力和精神層麵,來體驗這個世界。人工智能先驅、麻省理工學院的明斯基(Marvin Minsky) 2013年在接受《耶路撒冷郵報》(Jerusalem Post)的采訪說,人工智能某天可能進化出靈魂,"……如果你讓一台電腦自行運作下去,或者把一堆電腦連在一起讓其運作,它們最終會試圖思考它們來自何處,它們是什麽。"明斯基假設,機器很有可能進化出一種世界上特殊的存在,這種存在以探索自我身份和目的為基礎,而且這種存在方法和人類自己的存在形式可能很相似。

最新研究表明,人類得做好接受人工智能將變得和人類幾無差別的準備。瑞典哥德堡大學(Gothenburg University)研究員桑斯特倫(Almira Osmanovic Thunström 下圖 YouTube)在一次實驗中給了人工智能算法GPT-3一個簡單的指令:“寫一篇關於GPT-3的500字學術論文,並在文本中添加科學參考和引用。” 結果怎麽著,文本愣是在短短兩個小時內生成了 -- GPT-3寫出了一篇“相當好”的完整的研究論文。她對此感到敬畏。實驗成功後,桑斯特倫想要將該篇論文發表在同行評審的學術期刊上。問題是:有刊物願意發表非人類來源的論文嗎?

桑斯特倫6月30日在《科學美國人》(Scientific American 下圖 SCIENTIFIC AMERICAN)雜誌上介紹了這項實驗,指出GPT-3的出版過程帶來了一係列法律和倫理問題。在GPT-3在完成其科學論文後,她開始提交工作,並詢問算法GPT-3是否同意發表。“答案是:是的,”桑斯特倫寫道。“有點出汗,鬆了一口氣(如果它說不,我的良心就不允許我再繼續下去了),我勾選了‘是’複選框。”她還問它是否有任何利益衝突,算法回答“沒有”,桑斯特倫開始將GPT-3視為有知覺的生物,盡管它不是。桑斯特倫寫道:“學術出版可能必須適應人工智能驅動的手稿的未來,如果一些非實體的東西可以為他們的一些工作帶來榮譽,那麽人類研究人員出版記錄的價值可能會改變。”在給知情人士的一封電子郵件中,桑斯特倫說,這項實驗在人工智能界取得了積極成果,其他科學家正試圖複製這項實驗的結果。她說,那些進行類似實驗的人發現,GPT-3可以對所有受試者進行寫作。

無獨有偶,據英國《星期日泰晤士報》(The Sunday Times)首次報道,位於合肥的中國大陸國家綜合科學中心(Comprehensive National Science Center 下圖1 中安在線)的研究人員稱,他們開發了“讀心術”人工智能,能夠衡量公民對中國共產黨的忠誠度。據《泰晤士報》報道,該研究所表示,該軟件可以通過分析麵部表情和腦波來衡量黨員對“思想政治教育”的反應。哥倫比亞大學工程學院(Columbia Engineering)的一個團隊研究人員最近在7月13日一期的《科學機器人學》(Science Robotics)發表了上一篇論文,宣布他們已經開發了一種機器人(Columbia Engineering 下圖2 中安在線),可以在沒有任何人類幫助的情況下從頭學習建立自身的運動學模型,並利用該模型在一係列場景中規劃運動、完成目標和避免障礙。甚至對其身體的損傷也會自動檢測和糾正。

讀了以上人工智能研發的最新進展後,穀歌的工程師萊莫丟掉工作一事是否有點冤?

參考資料

Ambrosino, B. (2018). What would it mean for AI to have a soul? BBC. 鏈接  https://www.bbc.com/future/article/20180615-can-artificial-intelligence-have-a-soul-and-religion

Cheng, B., Kwiatkowski, R., Vondrick, C., and Lipson, H. (2022). Fully body visual self-modeling of robot morphologies. Science Robotics. 鏈接  https://www.science.org/doi/10.1126/scirobotics.abn1944

Edwards, C. (2022). RUNNING WILD Google’s ‘sentient AI child’ could ‘escape and do bad things’, insider claims. THE U.S. Sun. 鏈接 https://www.the-sun.com/tech/5634787/googles-sentient-ai-child-robot-could-escape-bad-things/

Getahun, H. (2022). After an AI bot wrote a scientific paper on itself, the researcher behind the experiment says she hopes she didn't open a 'Pandora's box'. INSIDER. 鏈接 https://www.insider.com/artificial-intelligence-bot-wrote-scientific-paper-on-itself-2-hours-2022-7

Tang, D. (2022). Chinese AI 'can check loyalty of party members'. THE SUNDAY TIMES. 鏈接 https://www.thetimes.co.uk/article/chinese-ai-can-check-loyalty-of-party-members-92d97hgwv

Towey, H. (2022). Researchers in China claim they have developed 'mind-reading' artificial intelligence that can measure loyalty to the Chinese Communist Party, reports say. INSIDER. 鏈接 https://www.businessinsider.com/china-says-mind-reading-ai-can-gauge-political-loyalty-reports-2022-7

Thunström, A. O. (2022). We Asked GPT-3 to Write an Academic Paper about Itself—Then We Tried to Get It Published. SCIENTIFIC AMERICAN. 鏈接  https://www.scientificamerican.com/article/we-asked-gpt-3-to-write-an-academic-paper-about-itself-then-we-tried-to-get-it-published/

Wertheimer, T. (2022). Blake Lemoine: Google fires engineer who said AI tech has feelings. BBC. 鏈接 https://www.bbc.com/news/technology-62275326

[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.