個人資料
慕容青草 (熱門博主)
  • 博客訪問:
歸檔
正文

機器人第零零壹 (001)定律

(2019-08-21 09:59:22) 下一個

先把定律的內容敘述一下:

機器人或人工智能機器永遠不可能象人類一樣把握人類的知識,原因是機器人或人工智能機器不生活在人類所生活的文化體係中。

再來說說這個定律的名字。之所以會想到用機器人第幾定律是因為上述這個結論指出的是人工智能及機器人發展的一個極限,類似當初的熱力學第一及第二定律指出永動機是科學所無法達到的極限一樣。至於說為什麽是第零零一定律,稍候一會兒再回來談。

再談這個定律的意義。上述這個道理是我在其它地方已經明確地直接或間接闡述過的。當我把這句話明確說出來後,很多人可能會覺得道理很簡單明了,但是在我說出來之前,還沒有人提出過。而“還有人提出過”這一現實其實反映出這一表麵簡單的道理並非那麽簡單。

以該論述的前半句來說,迄今為止,專業人士們有關機器人與人類相比這一議題經常爭論的焦點是機器人是否可能具有象人一樣的智慧,或者機器人是否可能象人一樣思考,其意義和我這裏說的表麵看來毫不相幹,其實密切相關,這一點大家慢慢可以體會到。而且即便對於機器人是否能象人一樣地思考這一點,專家們的意見也一直不一致,因此,並沒有能將其作為一個定律提出來。

我這裏之所以將“機器人或人工智能機器永遠不可能象人類一樣把握人類的知識”作為定律提出來,是針對目前人工智能界的期待著機器人或人工智能機器很快能夠如AlphaGo掌握圍棋技能那樣全麵把握人類知識的一種回應,而我給出的理由是:“機器人或人工智能機器不生活在人類所生活的文化體係中”。這一原因的意義很重要,大家可以自己去體會。

其實,“永動機不可能”這個結論被說出來後,聽起來也很簡單,而且在它被作為定律提出之前也早就有人說過類似的結論,甚至有人可能會從諸如人幹活需要體力,而維持體力需要吃飯這樣的生活常識悟出永動機不可能的道理來。但是,這個道理最後作為熱力學第一第二定律表達出來卻不但是建立在大量的試圖製作永動機的失敗教訓以及科學家們相應的理論思考之上,而且還具有諸如功能轉換,不可逆過程,有用能向無用能蛻變等豐富的內涵。

但另一方麵,即便是今天仍然有很多人,很多專業科學人員在試圖製造永動機。兩百來年前人們試圖用機械的方法製作永動機,一百來年前人們試圖用磁體製作永動機,今天用磁體製造永動機的夢想似乎仍若隱若現,又加上了用什麽零點能量,超導超流原理來製作永動機的夢想。

類似地,盡管“機機器人或人工智能機器永遠不可能象人類一樣把握人類的知識”這個結論對大多數人來說聽起來明確簡單,卻也一直有而且一定還會有很多人去造出可以象人類一樣地把握人類所具有的知識的機器人或人工智能機器來,而且還都是極聰明高級專業人士。就如同那些不懈地嚐試要製作永動機的人前仆後繼地再努力再失敗一樣,任何試圖製造可以象人類一樣地把握人類所具有的知識的機器人或人工智能機器的努力也一定會一而再再而三地遭受失敗。

熱力學第一第二定律之所以會作為定律來表述的最主要的原因並非是它們的正麵論證,而是那些試圖違背它們而不斷失敗的反麵教訓;同樣地,“機器人或人工智能機器永遠不可能象人類一樣把握人類的知識,原因是機器人或人工智能機器不生活在人類所生活的文化體係中。”這句話之所以能成為定律是因為沒有人能夠打破這句話所表達的論斷!

因此,在今後的日子裏將會出現的大量的試圖打破這句話的結論卻遭受失敗的例子,它們將會成為這個論述最終被普遍接受為定律的最主要的貢獻。

那麽,一定會有很多人試圖打破上述這個結論嗎?答案很明確:一定會有。

當然,因為還沒有幾個人聽過“機器人或人工智能機器永遠不可能象人類一樣把握人類的知識,原因是機器人或人工智能機器不生活在人類所生活的文化體係中”這個論述,因此人們不會特意去打破其結論,但是試圖製造能夠象人類一樣把握人類的知識的機器人或人工智能機器是目前AI和機器人界的熱門,這方麵的經費已經發出去,因此,即便是相關人員為了自己的生存,為了完成科研經費所要求的任務,也一定會向這方麵努力的。正所謂箭在弦上不得不發。其中最主要的是在人工智能仿生學領域中的研究。

但是,如同兩百來年前的科學家們用自己的挫折和努力證明了熱力學第一第二定律一樣,今天試圖製造可以象人類一樣把握人類的知識的機器人或人工智能機器的科學家們也必將以他們的努力及經驗教訓為“機器人或人工智能機器永遠不可能象人類一樣把握人類的知識,原因是機器人或人工智能機器不生活在人類所生活的文化體係中”這個論斷做證明,使之最終成為被普遍接受的定律,暫且不論到底應該如何給這個定律命名。

現在再回來談為什麽要給這裏討論的結論命名為機器人第零零一定律,而不是機器人第一或第二定律。原因其實很簡單,因為有位叫艾薩克阿西莫夫的名人不但早就搞出了個機器人三定律[i],還在那三定律之前加了第零定律,盡管他那四個定律根本談不上是什麽定律,而是作為科幻作家的他一廂情願地為日後的機器人製定的主觀法則。很顯然,他的那些法則對於今天的機器人及AI科學家和工程師們不具備半點約束力。所以,隻能是讓他的科幻小說迷們爽一下而已。

但問題是,在英語中定律與法則是同一個詞---Law,因此,他的那些法則也早就被當成了定律來轉述。即便是仍有人隻把它們當作主觀法則而不是定律,我也無法再用“Robotics First Law機器人第一定律”來命名我這裏討論的定律了。而且,他既然已經將機器人的定律名稱從零都三都占了,而且他的名氣又那麽大,作為無名氏的我現在就無法再用從機器人第零到第三定律這個範圍的任何名稱來命名我這裏的真正的有關機器人發展的定律了。

不僅如此,如果他那些法則確實屬於是定律性質的自然法則,我還可以跟在他後麵來命名一個第四定律。但是,他的那些根本就不是什麽定律,而完全是他想象出的一廂情願的主觀法則,我如果跟在他後麵用第四定律命名隻有誤導眾生。

但另一方麵,我這裏討論的定律卻又實實在在地如同熱力學第一和第二定律一樣是有關人工智能及機器人發展的一個極限的定律,因此又感到確實應該用諸如機器人第幾定律的名字來命名,於是乎便想到了一個既符合熱力學定律名稱規範,又不會被誤解為阿西莫夫的科幻定律一類的文學產物的名稱,那就是“機器人第零零壹定律”,也可以是“人工智能第零零一定律”。

 

[i]機器人三定律,維基百科,自由的百科全書,https://zh.wikipedia.org/wiki/%E6%9C%BA%E5%99%A8%E4%BA%BA%E4%B8%89%E5%AE%9A%E5%BE%8B:

 

第零法則

機器人不得傷害整體人類,或坐視整體人類受到傷害;

第一法則

除非違背第零法則,否則機器人不得傷害人類,或坐視人類受到傷害;

第二法則

除非違背第零或第一法則,否則機器人必須服從人類命令;

第三法則

除非違背第零、第一或第二法則,否則機器人必須保護自己。

 

下麵是有人今晨在youtube貼出的視頻,從中可以看出本文之重要性:

 

 

[ 打印 ]
閱讀 ()評論 (1)
評論
慕容青草 回複 悄悄話 在某華人網站貼出此文後有網友前來討論。。。該討論提醒我應該回歸我當初要寫此文的初衷:用定律形式指出機器人在學習方麵不可能和人一樣。。。因為有些禁區是它們難以跨越的。。。下麵是我和他的對話的整編摘錄:

蘆薈111:

機器人或人工智能機器永遠不可能象人類一樣感受與思考,原因是沒有真正的自我意識。機器人的一切行為都是被設計的結果。

蘆薈111:

說機器人沒有自我意識不如說沒有自由意誌更好。自由意誌是在自我意識的基礎上發生的行為,並不是無法無天的意思。因此機器人無法突破設計的限製產生這種行為。



慕容青草:

隨你怎麽說,那不是我的文章要表達的。

我在《機器人第零零一定律》一文中的最初的表達或許會引起你的誤解,但我已改回到我當初要寫該文的主題思想,也就要寫該文的初衷:“機器人永遠也不可能在學習人類的知識上與人相同”------這才是直指目前AI領域的熱點。。。

現在的AI科學家們一個個夢想著能讓機器人能象人一樣地把握知識,從而不但取代醫生,甚至藝術家和科學家,以及家庭保姆服務等等。。。總之就是取代人類的一起社會功能。。。。。。。而我的那個機器人第零零一定律說的是:“你們別做那黃粱美夢了,機器人在學習人類的知識方麵永遠不可能和人一樣,因為有些禁區是它們永遠不可能跨越的障礙”------這才是我的那個機器人第零零一定律的要點所在,也是它的價值所在------它為AI發展指出了正確的方向:不要把經費和精力浪費在不可能實現的事情上。。。這就如同當年的熱力學第二定律告訴人們不要把經費和精力浪費在永動機上一樣。。。

當年卡諾對熱機效率的分析為熱力學第二定律奠定了一個科學的基礎。。。而我對機器人翻譯之局限的分析也為機器人第零零一定律奠定了哲學基礎。。。。。。這才是我的相關理論的價值。。。。

至於你所說的自由意誌也罷,自我意識也罷,盡管去分析。。。已經有很多人在方麵打了很多口水戰了。。。我曾去過一個英文的哲學論壇,其中之熱點之一就是討論人及機器人的自我意識和自由意誌。。。可惜你不讀英文,否則可以介紹你去。。。不過我也有幾年沒去了。。。我對那些空談興趣不大。。。

我的機器人第零零一定律絕不是空談。。。走著瞧。。。今後它一定象熱力學第二定律一樣地被現在那些誌滿意得的AI科學家在試圖讓機器人象人一樣地學習的道路上的挫折來證明是真正的定律。。。。

隻不過,越早接受這個定律,AI科學家會走的彎路越少,浪費的科研經費也越少。。。。

登錄後才可評論.