一位神經科學家的心路曆程

來源: 張誌軍 2015-12-02 05:12:12 [] [博客] [舊帖] [給我悄悄話] 本文已被閱讀: 次 (18121 bytes)

我們知道理解一些事情意味著什麽,因為我們體會到了理解的感覺。但機器不會。

人與機器的區別正身處重圍。技術先知Ray Kurzweil抱著隨意的信心說,把人類自己上傳到宇宙服務器中能夠實現電磁形式的不朽。在我看來,機器可能獲得與人類知覺與情感相當的等價物——這隻是純粹的幻想。然而,作為一名神經學家,我不能忽視先進的機器智能中人類意識的含義。

讓我們先來回想一下1997年IBM深藍擊敗加裏·卡斯帕羅夫這件事。卡斯帕羅夫指責深藍在一步關鍵的步驟中有IBM人工幹預的成分。這一舉動凸顯出這一事實:當機器越來越聰明時,人類將會遭遇重要的認知失調。

我們知道理解一些事情意味著什麽,因為我們體會到了理解的感覺。機器不會。

卡斯帕羅夫不能接受他自己被一台計算機打敗了,因為他感到在這一棋局中輸給了更高級的智能。但是,他錯了——幾年之後,深藍的創造者揭示說,最重要的一步棋源自軟件的一個bug。麵對眼前的幾種選擇,深藍無法確定選擇哪一個,結果,一步隨機的棋讓卡斯帕羅夫慌了神。

揭秘創造力的生物過程是一件大事。功能性核磁共振掃描大致的告訴我們,某個人有了新想法時,哪一片腦區會亮起來。腦波專家提出一些對原創性有特異反應的腦電模式。即使這些發現成功了,他們也不能告訴我們一步好棋如何從軟件錯誤中產生。如果我們被迫擴大創造力的概念,將隨機的神經放電也納入其中,這有助於我們看清人類麵對無意識機器意淫出來的優越性嗎?

對於卡斯帕羅夫來說,深藍是一個謎一樣的黑匣子,什麽構成人而什麽構成機器智能的偏見造就了他的看法。他不是唯一這麽想的人。對於人類如何思考,我們有著強烈的私人私人感受,因為我們經驗著思考。我們知道理解意味著什麽理解意味著什麽,因為我們體驗著理解的感覺。這種理解的感覺既需要意識能力,也需要察知某人思想的能力。我們無法設想沒有意識的理解。

實際決策的質量或者說精度,在這個過程中被忽略了。棋手所走的每一個標準步驟代表的是理解,線路和晶體管構成的沒有生命的收集者的優越步驟不是理解,而是死記硬背的機器學習。為了說明這一點,腦補一個自稱象棋菜鳥的人走出了深藍的殺招,我們所有人都會懷疑她到底是不是菜鳥。

然而,神經科學正在揭示:理解不是意識深思熟慮的結果。從直覺到「啊哈」,不同程度的領悟感,其實是無意識的精神感覺( involuntary mental sensations),是潛意識大腦機製的產物。大腦通過這種方式告訴我們,潛在想法可能是對的。它們更像是身體感覺而非精神感覺,在有意識的思維不在場時,它們能在某些精神藥物和直接腦部刺激下自發產生。我們不會對「啊哈」有什麽終極理解,感受它,如同體驗著愛欲和驚奇。

相反,我們能在沒有任何理解感的情況下認識事物。(在經典的盲視例子中,皮質盲患者能夠指出視野裏有燈光在閃爍,即使他們覺得自己看不到任何東西,患者的某些感覺是十分可靠的,但他們卻對此一無所知。)

如果我們接受這樣的觀點:理解感是一種機器不可能體驗到的無意識感,那麽,你可能會認為,我們應該停止擔心機器會「懂得」什麽。然而,事實並非如此。1980年,哲學家John Searle提出的中文房間的論據證明數字計算機不可能理解語言或者思想,茲總結如下:

想象一個母語是英語,對中文一無所知的人被鎖在一間房子裏,這個房子裏有許多中文符號(一個數據庫)和一本操作這些符號的指南(程序)。一個在房子外的人用中文符號提交中文問題(輸入),這些都是房子裏的人所不了解的。接著,房子裏的人遵循程序的指導,遞出正確答案的中文字符(輸出)。這個程序讓房子裏的人能夠通過理解中文的圖靈測試,盡管他對中文一無所知。

回到1980年,那時我們對大腦了解很少,人工智能還沒有實際效用,在這種語境下,John Searle的討論是合理的;在人工智能還缺少理解力時,你當然不會期盼它做出隻有聰明的人類思想才能做出的決策。然而,三十五年後的今天,這個爭論過時了。實際上,認為機器沒有意識和感情,令人費解。否認機器能夠理解,無助於我們探知機器智能的的潛在界限。即便如此,據斯坦福哲學百科全書,中文房間論證(the Chinese Room argument)仍舊是繼繼圖靈測試之後,認知科學領域討論得最為為廣泛的哲學觀點。

這仿佛是人類自我宣稱的優越和獨特地位正在持續受到威脅,似乎必須從根本上與所有其他潛在會思考的實體進行比較。在幾百年前,笛卡爾就假設其它的動物是機器人。即使我們知道烏鴉能使用工具,黑猩猩會進行領土戰爭,我們仍然不會擔心烏鴉和黑猩猩會占領我們的星球,也不會擔心他們會取代我們成為地球上最高的生命形式。但是機器,就要另當別論了。

值得讚揚的是,卡斯帕羅夫看到了未來。後來,他的朋友們嚐試著安慰他說,計算機擁有遠比人腦更強的計算能力,但是,它不理解象棋。鑒於計算機處理的大量信息,卡斯帕羅夫的回答可謂先見之明:「更多的數量能帶來更好的質量(More quantity creates better quality)。」

我們大多數人知道,這將在我們有生之年裏成為現實。作為一個實踐的神經學家,我對我積累的臨床數據很驕傲。現在,不僅僅是神經科學,任何有一點內存的手持設備都有個更大、更精確的數據庫。撲克是我一生所愛,通過實踐、學習和一點點數學,我掌握了還算不錯的技能組合。對我而言,遊戲的快樂來自於知道對手都有什麽牌,賭什麽,對手什麽時候是在吹牛。本質上,我熱愛神經科學和撲克是因為自身才能在這些領域得到最好的發揮。現在不再是這樣了。

最近幾年,阿爾伯塔大學的計算機係開發的一個撲克程序(Cepheus)不斷打敗世界上最頂尖的選手。但是,這一係列獲勝最值得注意的地方是,他們不是預先編程成某種風格或者是對錯綜複雜的撲克知識有所了解。取而代之的是一個有巨大內存(4000TB)的人工神經網絡。它測試並紀錄了上百萬局嚐試和錯誤的仿真牌局,最終學會了任意給定情況的最優策略。做到這點時,它沒有關於撲克遊戲以及對手的任何知識,或者最佳人類選手的任何細節。(如果你願意,你可以在(http://poker.srv.ualberta.ca/)和這個程序對弈。)

因此,如果接受現實,承認機器的這種相對優越性,我們該如何適從?我很讚賞一位年輕朋友的觀點,他是一位頂級撲克聯賽選手,花了大量時間挑戰Cepheus(不過,鮮有勝績)。他希望通過觀察對弈提高撲克牌技巧,試圖揭開計算機時常采取反直覺招術背後原因。他並不關心Cepheus是否了解撲克遊戲本身。「嗨,我很務實,不是哲學家。如果機器知道些我不知道的事情,我樂於以它為師。」

與其讓什麽構成了意識這種生物學偏見壓得自己喘不過氣來,不如試著采取新的分類法。將機器視為擁有不同類型智慧的獨立物種——在數據處理上,機器優於人類,但是它們沒有情感理性。它們既不優於人類,也不遜於人類,僅僅不同於我們。在談論機器智能時,讓我們試著避免使用諸如思維、理解之類的詞匯;它們無助於我們對機器的理解(明白我的意思嗎)?人類正慢慢了解到動植物展現自身智慧形式的無數種方式;在認識機器時,也應該遵循同樣的道理。

區分很簡單。 就可定量數據而言,智慧將變得越來越集體化,而非私人化。我們可以從智能機器那裏獲得最佳治療方案,撲克或象棋遊戲中最佳招術,選擇最佳出行時間,獲取天氣變化消息。在這種定量數據方麵,人類不占優勢。

人類智慧最根本的價值在於,我們能夠沉思那些不能量化的東西。情感,感覺和意圖——作為人的那些特質——無法加以精確的描述和計算。機器無法也不能告訴我們最好的移民政策,是否應該繼續基因療法,槍支管製是否最符合我們的利益,等等。計算模型能夠告訴我們,微妙的人類偏見如何引發明顯的種族主義和盲從,卻無法將觀看一幅私刑處決照片時湧出的大量人類情感納入考量。

無需贅言,我們擁有情感智慧;機器可沒有。與其為驕橫的機器會從人類這裏奪取什麽而焦慮,不如關注那些僅憑人類自己就能帶來變化的領域。

平心而論,這篇文章是我個人長期觀察思考後的成果。我一直關注著人類創造和使用智能機器的熱情,這種熱情正與日俱增,但真正擔憂的是人類正逐漸失去機器無法取代的認知技能(cognitive skills)。大學人文學科招生人數在下降,文人小說也如沐黃昏,人們對信息的熱情似乎超過了對沉思的關注。當然,沒有什麽是非黑即白。這種趨勢也是我作為旁觀者的拙見。

我承認自己偏好這樣的想法:根據科學證據和推理回答那些經驗性問題,與此同時,對無法言說的神秘之物和情感複雜事物——構成我們生活的那些無法形容卻顯而易見的混亂,保持深深的理解和欣賞。就後者而言,能賦予我們價值的不是那些具體答案,而是深度思考過的問題。最終,問題的質量將成為衡量一個人的標尺。

請您先登陸,再發跟帖!

發現Adblock插件

如要繼續瀏覽
請支持本站 請務必在本站關閉/移除任何Adblock

關閉Adblock後 請點擊

請參考如何關閉Adblock/Adblock plus

安裝Adblock plus用戶請點擊瀏覽器圖標
選擇“Disable on www.wenxuecity.com”

安裝Adblock用戶請點擊圖標
選擇“don't run on pages on this domain”