從抗生素新藥Halicin的研發過程想到的

這是我聽完汪潔的講座後記錄下的文字,自己做了些許修改。希望能對讀過此文的朋友,在麵對迅湧而至的人工智能浪潮麵前深入思考並擁有合理的態度有所幫助
                                      
二十世紀著名科學哲學家庫恩曾提出,科學的發展並不是一種平滑的線形發展模式,而是會像走台階一樣,隔一個階段,上一個台階。這被稱為範式轉換,也被他稱為科學革命。人們一般人都會認為,總結過去並不代表就能預測未來。而現代的科學研究也已發展的相當成熟,科學方法也多已定型。所謂的現代的科學方法,簡言之就是:理論推理加係統實驗。但是,最近一年以來,人們看到GPT人工智能模型的快速迭代發展,這讓我們再次想起庫恩的科學革命,它很有可能會在不遠的將來再次到來,人類社會又將迎來一次史無前例的深刻變革。這種變革的劇烈程度很可能超越工業革命對社會的衝擊。                               
現代科學研究範式遵循的原則過程是:無論我們做什麽科研項目,總是先要找到一套指導性理論。它未必成熟,也不一定完全正確,但總是要先有理論,用理論來指導實踐。根據這些理論,人們做出一些假設或者猜想,再設計一些實驗來證實,或者證偽,如此循環往複,直到找到滿意的答案為止。以藥物研發為例,用現代範式來研發一種靶向新藥,大概有如下幾個步驟:第一步就是發現新靶點,就是用藥物打算攻擊的某個位置(比如癌細胞的某個位置)。通過現有理論(生物信息學、分子生物學等等)找到它,找出可能與某種疾病相關的蛋白質分子上的靶點。第二步就是藥物設計,在現有理論的指導下,人們設計出一種有可能攻擊靶點的分子結構。第三步就是通過化學方法合成出想要的分子結構。第四步就是實驗,包括動物實驗、人體臨床實驗(一期、二期、三期等)。實驗有可能成功也有可能失敗,如果失敗了就再返回第一步。如此循環往複,用幾年或者十多年找到一個新藥,這已經是非常幸運的了。但是,當AI出現後,尤其是用神經網絡構建的機器學習模型出現後,這種科學研究的範式就開始麵臨挑戰。2020年第一個讓科學界感到震驚的例子出現了。這就是MIT的科研團隊研發出的一種新的名為Halicin的抗生素。並非此新藥有多麽神奇,令科學家們感到震驚的是Halicin的研發過程,已經半跳出了現代範式。首先,科研人員先讓AI去學習大約2000個分子結構,這些分子結構和作用都是已知的。它們有的有效有的無效。然後通過神經網絡的深度學習,AI自己會總結這些分子結構是不是有效的規律。而AI總結出的規律是無法用人類現有的自然語言描述出來的。AI並不會總結出一套我們人類可以讀懂的公式,從而讓人們隻要套用這個公式就可以輕易地知道哪個分子結構有效哪個無效。AI有它自己的一套,連開發者自己也不知道它到底是怎樣運作的判定規則。對人類來說,AI就是一個黑盒,我們隻知道給它一個輸入值,它就能返回一個輸出值。至於它的過程到底是怎樣的,人類語言無法描述。有了這個AI,研究人員再把另外61000個已知的可能會有效的分子結構,一個一個地輸進去,讓AI給這些分子結構按照有效性、副作用等等綜合評價來打分,最後得分最高的分子就是Halicin。研究人員再用Halicin做動物實驗和人體臨床實驗,結果就發現其效果是非常的好,一款全新的抗生素就這樣被研發出來了。                             
這是一種不同於現代範式的研究方式。如果用現代範式方法去測試這61000種分子結構,需要花費的時間和金錢成本是不可想象的。從這個例子裏可以讓人們突然意識到,AI可以發現人不能理解的規律,而這又的的確確是一種規律。因為它真的在61000種分子中找到了唯一一個有效的分子,這肯定不是用運氣能解釋了的。黃金時代的科學家有一種理想,這個世界上的所有規律都可以用數學模型來總結或模擬。但是現在AI告訴我們,至少它們掌握了一種不是用一個或一組數學公式,而是用一套通用的算法加上海量的參數來描述的自然規律。這套算法隻有AI能懂能用,人腦用不了。現在用戶量已經突破一億,人人都在談論的ChartGPT其實就是GPT-3.5這個AI模型的一個應用,它的參數已經突破了1750億個,這已相當於銀河係中恒星的數量。它是一個人類的大腦永遠也無法真正理解的小宇宙。                                                                      
除了新藥研發,人們也可以用AI來解讀基因的功能等問題。所有用AI來做科研的模式,都已經不是現代範式,至少不完全是現代範式。它們的一個共同的特征就是:AI相對於人類科學家來說是一個黑盒,我們無法理解黑盒內的原理,或者黑盒內的原理是一種隻有AI才能理解的形式。人類大腦的生理結構就決定了這種形式是我們人類無法真正理解的。事實上,OpenAI和ChatGPT的開發者們也搞不清楚為什麽ChatGPT能夠表現出現在這個樣子。           
2023年2月24日,ChatGPT 的開發公司OpenAI在官網上發布了一則聲明,標題是《AGI以及AGI的路線圖》在這裏,AGI是通用型人工智能的簡稱,隻要是人類用智力能完成的任務,AGI就都能完成,這是一種更進一步的強人工智能。這則幾千字的聲明可分為兩部分,第一部分The short term 一句話,隨著係統越來越接近AGI,我們對模型的創建和部署也越來越謹慎。第二部分The long term有一段是:AGI不過是人工智能連續發展過程的一個點,它依然會繼續進化,速度與過去10年相同。果如所料,世界將會變得截然不同,同時也將伴有著巨大的風險。因為一個立場錯位的超級智能可能會對世界造成巨大傷害。人工智能加速科學進步的能力是一個值得深思的特例,其影響力或許超過所有事物之和。AGI有足夠的能力來加速自己的進程,這可能導致世界以驚人的速度發生重大變化。成功過渡到一個擁有超級智能的世界,可能是人類曆史上最重要最有前途,同時也是最可怕的項目。成功絕非一蹴而就,賭注即天堂還是地獄,有望將我們所有人團結起來。一個人類繁榮到我們都無法想象的世界,或許不再是天方夜譚,因為我們為世界提供了一個與之匹配的AGI。         
未來真的來了。一個智力遠勝於人類的超級智能體,在技術上已經不再是障礙,唯一的障礙就是法律和倫理。在不遠的將來,科學的現代範式將成為低效的代名詞。未來範式的科研將變得有點像是一種文字遊戲。不知道什麽樣的人可以更好地掌握未來範式,但問出一個好問題,或者說如何與AGI溝通,將是最重要的事情。這將是一場重大的科學革命,當這場革命來臨之際,世界的科技、政治、經濟格局都很有可能麵臨重新洗牌和大變革。人們可以通過AGI將難以想象的複雜的事情,以簡單的方式設計並產出,而且所有的指標都可以超過現有最好的。如果像這樣的超人工智能一旦出現,難以想象人類社會將發生怎樣的巨變。這意味著AI真的可以完成從軟件到硬件的自我進化,成為神一樣的存在。而第一個擁有這種超級人工智能的組織會迅速獲得別人無法匹敵的,可以用降維打擊來形容的超能力。從OpenAI的聲明來看,超人工智能的技術障礙似乎已經被掃清了。至此,我也很想知道你(們)對強人工智能或者超人工智能的看法。你要思考的已經不再是不知道能不能實現的科幻,而是正在向我們走來的未來。                                                                                 
參考文獻:
1. Jonathan M. Stokes, Kevin Yang, et.al.  A Deep Learning Approach to Antibiotic Discovery.  Cell vol.180 (4), P688-702, Feb.20, 2020.        https://www.cell.com/cell/fulltext/S0092-8674(20)30102-1                                         
2. Sam Altman, Feb. 24, 2023.   https://openai.com/blog/planning-for-agi-and-beyond



更多我的博客文章>>>
請您先登陸,再發跟帖!