對話女性科學家林詠華:AI終極目標就是取代人類

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
(被閱讀 次)

被譽為“深度學習之父”的傑弗裏·辛頓75歲了,今年的智源大會閉幕式上,他發出感慨,“我已經老了,未來交給年輕人”。

他說,“我所希望的是像你們這樣年輕有為的研究人員,去想出我們如何能夠擁有這些超級智能,使我們的生活變得更好,而不是被它們控製。”

辛頓的此番感慨流露出兩層含義:其一,計算機科學的發展完整的經曆了一代人,現在是交接班的時候了;其二;計算機科學的發展是一個漫長的過程,通往服務人類的超級人工智能時代,需要無數的後來者上下求索。

辛頓之前,包括約翰·科克、佛瑞德·布魯克斯、道格拉斯·恩格爾巴特在內,大批計算機科學先驅悄然“離場”,辛頓之後,又有楊立昆、約書亞·本吉奧、莎菲·戈德瓦瑟等一批“年輕一代”科學家走向台前。

其中,以莎菲·戈德瓦瑟為代表的女性科學家,已成為這項前沿科學不可或缺的力量,林詠華就是我所認識的女性科學家中的一位。

林詠華是智源研究院副院長,兼總工程師,從業超過20年,就職IBM期間力推人工智能係統創新,也是IBM全球傑出工程師。



圖為智源研究院副院長,兼總工程師 林詠華

對於今天“萬模大戰”,林詠華回想到了上一個被追捧的“AI時代”,她說“今天我們看到的場景,10年前計算機視覺領域就曾經出現過。”

計算機視覺的創業潮,在2017年進入巔峰,但是在2020年之後進入穀底,而對於這樣的潮起潮落,林詠華說,“10年前,資本、創業團隊對AI在計算機視覺領域的‘刷榜’過度追捧,但過去10年它的產業落地沒有想象得繁華,行業拓寬速度不斷放慢。”

在林詠華看來,今天以大模型為代表的這波創業浪潮,大家要思考的是“如何讓它保持上升的走勢,而不是潮起後很快走向潮落。”

過去,林詠華在IBM做小模型的研究,她說2-3天就可以完成一個幾百萬、甚至是上千萬參數模型的訓練,但今天動輒百億、千億參數的模型規模,試錯成本則太高,很難在初期預測2-3個月後的結果,也難以在訓練過程中做大幅修正,林詠華把這個形象比喻為“船大難掉頭”。

針對時下最具爭議性的“人工智能取代論”,林詠華的看法非常激進,她說“10年前,我們推出的“AI for AI”的平台產品,目的就是替代算法工程師”,林詠華認為藍領被替代的節奏反而慢於白領,也就是腦力勞動者的崗位更容易被替代。她舉例說道,“一個10毫秒可以檢測出來的物體,機器手需要幾秒鍾才能完成抓取,效率遠不如人工,屬於典型的‘肉體趕不上靈魂’”。

而對於計算機的未來和年輕人,林詠華則鼓勵更多的年輕人強化AI+X的能力,探索AI在各個專業領域可以帶來的變革。與此同時,她也呼籲更多女性加入到人工智能的研究當中,“人類智慧的發展,其實就是兩性共同構建過程。女性的思考和角度,必然會驅動AI技術發展的更為完整。她說,自己最近一直在思考如今的大模型已經開始有類人類的認知,如何在基礎模型的訓練過程中,就能把人類的真、善、美注入到AI大模型中,而不是靠訓練到最後的價值觀對齊?

以下為文字精華版,在不改變願意的前提下有刪減調整:

01 AI潮起潮落,10年一個周期

騰訊科技:林院長,今年生成式AI爆火,業內經常提起“萬模大戰”這種形象的比喻,它的關注度堪比互聯網領域的團購、網約車大戰,人工智能也進入了競爭激烈的紅海階段了嗎,過去又經曆了哪些關鍵階段?

林詠華:ChatGPT出來之後的這半年,讓我想起大概十年前,也就是2013年-2015年ImageNet時代,它屬於上一個被追捧的“AI時代”,這個階段,深度學習卷積神經網絡推動了計算機視覺的快速發展。



*2012年,Hinton與其學生Alex Krizhevsky憑借AlexNet奪得當年ILSVRC冠軍,Alex Krizhevsky(中)、Geoffrey Hinton(右)來源:medium

當時ImageNet比賽“ILSVRC” ,每年的比賽結果都大幅度超越前一年的記錄,直到2015年,ResNet(殘差神經網絡)的錯誤率降低至3.57%,已經低於同類實驗中人眼識別5.1%的錯誤率,當時業界的共識是深度學習為計算機視覺打開了一扇巨大的“機會之窗”,就像今天ChatGPT問世,大家普遍認為可以打開AGI的大門一樣。

編注:ImageNet項目是一個大型視覺數據庫,2010年以來,ImageNet項目每年舉辦一次軟件競賽,即ILSVRC,比賽使用1000個“整理”後的非重疊類別,每個類別1000張圖像,參數軟件程序比拚正確分類和檢測目標及場景。

也就是在這個階段,一批AI團隊加入到創業大潮當中,備受VC追捧,當時這些團隊都紛紛基於ResNet定製修改推出了自己的卷積神經網絡,然後去打榜,無論是參與視覺分類的ImageNet比賽,還是參加目標檢測的COCO比賽,打榜一旦成功,馬上就創業融資,形成了這樣一種模式,和今天的大模型創業有點類似。

2013年依圖創立,2014年底商湯完成天使輪,2015年雲從創立,今天回過頭來看,無論是已上市還是待上市的相關公司,都是在這個時間點創立。

今天我們看到的“百模大戰”的場景,計算機視覺領域10年前就曾經出現過,這波創業浪潮在2017年達到頂峰,根據當時的統計數據,全球獲得融資的AI公司達到4000多家,到2020年下降到600-700家,隨後創業浪潮進入穀底。拐點則是2022年的下半年,大模型、AIGC開始出現。

騰訊科技:也就是說,AIGC這波浪潮還處於上升階段,未來也一樣會進入穀底?

林詠華:過去十年潮起潮落,潛台詞是我們要走好未來十年,至於為什麽出現潮落,是因為初期無論是資本還是創業團隊,對計算機視覺領域“刷榜”的過度追捧,認為計算機視覺無所不能,但真正大範圍落地的隻有人臉識別、車牌識別、工業缺陷檢測這些,而更多的應用,由於準確率或魯棒性沒能達到要求,未得到大範圍使用。正是因為它的產業落地沒有當初想象的繁華,於是行業開始逐步的收縮。

所以在新的十年,在這波大模型浪潮裏,我們需要吸收上一波浪潮的經驗教訓,以便於讓它一直呈保持上升的走勢,而不是很快地出現潮起潮落。

AIGC這個新浪潮之下,回過頭來看,2017年確實是非常值得紀念的一年。

當年計算機視覺創業浪潮到達波峰,IBM提出了AI三大階段:Narrow AI、Broad AI、AGI,並在年末推出了人工智能辯手機器人“Project Debater”,當時參與了兩場比賽並拿到了歐洲的辯論冠軍,這個項目和ChatGPT在很多外在能力的表現上是接近的,例如可以跟人交流,針對用戶給出的提問,檢索互聯網信息形成自己的論點,而在人類辯手反駁時,“Debater”具備理解長篇的反駁觀點的能力,再進一步生成辯駁的論點。



*圖為IBM Project Debater 項目原型機 來源:IBM

IBM對“Project Debater”的定位是Broad AI的雛形。而當時,所有人都認為AGI時代太遠,沒有人知道人類會在哪一年到達IBM所謂的AI第三個階段——AGI時代。

同樣還是2017年底,Google發布了知名的《Attention Is All You Need》論文,並提出Transformer架構。

所以,今天的這波大模型浪潮並不是憑空而來,在2017年,當前計算機視覺浪潮達到波峰時,其實就已經埋下伏筆,差別在於個各家的實現路徑不一樣, IBM選擇的是采用深度學習卷積神經網絡,讓機器更貼合人的思維去進行複雜的任務,穀歌嚐試的則是全新的Transformer架構。

騰訊科技:為什麽中間經曆了5年,大家都在做什麽?

林詠華 :2014年-2015年除了計算機視覺在分類任務上超越了人類,這個階段還有一個非常重要的技術 ,也就是遷移學習(Transfer learning)——它也擁有一個基礎模型,可以引入其它領域的數據進行微調訓練(Fine Tuning)。李飛飛在2021年年底的LLM那篇文章裏麵就提到過,10年前計算機視覺領域就出現了遷移學習這項技術。

所以,計算機視覺領域實際上從2014年開始,就在嚐試將“預訓練基礎模型”+“微調訓練”這種新的技術落地到產業當中。

02 不要重複“造輪子”

騰訊科技:現階段大模型,生成式人工智能,給外界的感知主要集中在聊天機器人、圖片、音頻、視頻生成,像微軟穀歌也陸續在自己的產品線上規模化接入大模型的能力,還有哪些場景未來用戶是可以感知的,又有那些場景用戶是無法感知,但卻會持續受益的?

林詠華:你提到的比如聊天機器人,這些都是典型的to C領域應用,我們也在探索大模型在更龐大的to B領域應用。

關於可感知的部分,例如企業軟件,尤其是一些銷售、倉儲管理相關軟件,它們的交互界麵非常複雜,需要填大量的表格,但使用的人往往是銷售、倉管這些不是長期在計算機屏幕前工作的人群。我相信通過語言大模型,可以讓整個人機交互變得更加簡單、直接。這些都是用戶可以感知的,它可以大大降低一套新軟件的上手成本,提高人機交互效率。

無法感知的部分,還是以B端技術為例。AI領域存在不同架構的芯片,新架構的芯片需要和現有軟件及其生態進行適配,通常需要用到複雜的編譯器,所以我們也在嚐試通過語言、代碼模型,通過微調訓練,實現從一種語言到另外一種語言的自動生成和轉換,降低適配成本,這些都是非常底層的變化,用戶無法感知到,而恰恰是這種無法感知的變化,價值確很大。

騰訊科技:這樣全行業的應用,可能會在什麽時間點?

林詠華:有可能是未來2-3年。

騰訊科技:一個創業項目,也希望接入大模型的能力,都有哪些可能的途徑?

林詠華:除非資金、技術 、算力等實力雄厚,否則不建議上來就做基礎大模型的自研,它的投入太大了。我建議從選擇第三方的基礎模型或開源基礎模型,通過行業數據進行微調,成為某種行業應用的大模型。然後通過在行業實踐的過程,積累大模型應用的場景、數據和經驗,多次迭代從而提升模型能力,並逐步把技術和應用做深。

騰訊科技:什麽情況下必須要去做自研?

林詠華:無論是GPT4、還是國內像智源“悟道·天鷹”這樣的通用大模型,聚焦的還是通用領域,一旦要進入到特定的行業、領域,就要圍繞當前的賽道進行自主研發。首先,需要使用垂直領域的專業數據對模型進行訓練;其次,需要根據領域的不同,采用差異化的訓練方式;此外,還要考慮到下遊應用的適配。

騰訊科技:您提到開源,我知道悟道3.0也已全麵開源,張宏江理事長與Sam Altman在QA環節也問了OpenAI的開源計劃,開源的目的是什麽,什麽樣的機構適合做開源?開源動作會給創業者帶來什麽好處,給行業帶來什麽好處,難點在哪裏?

林詠華:開源與閉源沒有對錯之分,這由項目實體的性質決定,屬於機構自主決策,但還是應該鼓勵更多機構去推動大模型開源這件事,假設所有人都去自研通用大模型,需要耗費大量的算力、數據、電力,完全是重複造輪子,不利於社會資源的合理化利用;基礎大模型也決定了垂直領域模型應用能力、認知能力以及產品價值觀等,這也會對社會產生影響,客觀上要求有對應的機構去推動高質量的基礎模型開源。

對於創業者來說,一個靠譜,也就是質量高、安全性好、中英文能力優秀的基礎大模型,會大大縮減時間、資金的投入,反之就會增加各種不確定性的風險。

我們做過統計,現在已經發布的可商用開源語言模型,國外隻有16個,像LLaMA這樣的模型雖然開源,但是它是非商用的,明確要求基於它做微調的模型不能進行商用,國內已經發布的主流中英雙語開源、可商用的基礎大模型,到6月初的時候隻有智源一家。

與此同時,雖然市麵上有很多開源大模型,但大多數都是基於基礎大模型微調出來的對話模型。對於更加基礎、重要的基礎模型,可選的開源模型十分少。截止到6月初,國外的開源基礎模型,隻有LLaMA、Palmyra、MPT-7B、Falcon和RedPajama5家,國內在智源之前則隻有MOSS和CPM-Bee 2家,而後兩者也都不是可商用版本。

也就是說,現在市麵上支持中英文雙語,又支持商用,且符合中文用戶習慣的高質量基礎語言大模型其實是十分欠缺的,這也是智源今年決定把天鷹大模型開源出來的原因。

騰訊科技:“萬模大戰”之下,大家的模型五花八門,智源也推出了“天秤”大模型評測體係及開放平台,這對行業來說有什麽好處,會不會出現專門針對評測體係進行優化的“作弊”的辦法,智源會如何應對?

林詠華:我們的評測體係分了“練習題”和“考試題”,“練習題”已經開源,以便於外部模型順利對接評測體係。

“考試題”則是黑盒子,保存在天秤評測體係當中。“天秤”評測係統要求模型團隊上傳模型進行評分,避免“考試題”泄露。

到目前為止,天秤評測體係題庫中的題目量有8萬多,每一次評測大概會拿2萬多題出來,然後定期動態更換“考試題”。

此外,智源也在不斷擴大天秤評測的寬度。目前已經包括了中英文雙語、多種主、客觀的評測維度,以此規避模型定向優化的問題,如果我們將評測的維度不斷拓寬,就算開發者去迎合我們的評測標準,隻要做得全麵,也是我們希望看到的。

騰訊科技:我注意到智源有個“模型+評測”雙輪驅動的提法,它可以達到什麽效果?

林詠華:“模型+評測”雙輪驅動是智源做大模型時提出的一種發展模式,就像設計軟件,訓練模型之前從多個維度去製定它的能力範疇,後續無論是訓練、評測都圍繞這個能力範疇去推進,以便於模型訓練到一定程度,它的能力維度與評測體係是相符合的。

舉個例子,孫悟空有“72變”,在評測的時候就需要按照“72變”的維度去進行,檢測模型哪些能力是欠缺的,以便於在後續的訓練過程中及時的對包括超參數、訓練數據進行調整,包括對單一維度分值曲線的跟蹤。

簡單來說就是評測驅動訓練,保證模型的全麵發展。

騰訊科技:這算不算“邊走邊看”的邏輯?

林詠華:對,大模型訓練亟需工匠精神,需要不斷的打磨、精煉。我們在整個過程中,每天都會對至少兩個模型的過程版本(Check Point)進行評測。

03 大模型“船大難掉頭”

騰訊科技:您從之前在IBM做“小模型”,和在智源做“大模型”,最大的不同是什麽?

林詠華:難度不一樣,大模型的試錯成本太高了。

小模型的試錯成本很低,我們可以不斷改變訓練數據,可以很快看到結果。一台GPU服務器,上萬張圖片、甚至是幾十萬張圖片,2-3天就可以完成一個幾百萬、甚至是上千萬參數模型的訓練,在這個過程中,我們可以不斷的去調整算法、調整數據,以及可以拿到確定的結果。

大模型完全不一樣,參數量飆升,至少要有2-3個月的訓練時間,是一件非常有挑戰性的事情,它的挑戰在於,我們能否在最開始就預估到未來,尤其是兩三個月之後的結果,這裏涉及到數據的選擇、配比,算法的選擇,包括分詞器、優化器算法的選擇,這些項目都要非常的嚴謹仔細。

一旦模型開始訓練,就好比一艘“萬噸巨輪”開始往前走,而船大難掉頭,所以我們前麵說評測很重要,就好比巨輪在行駛的過程中,如果出現偏航,就及時的進行調整,但即便如此,我們也很難預知模型在訓練兩個月之後 ,最終它的能力表現如何,很可能會出現持續的訓練過程中,發現“航向”不符合預期,這時候就需要做艱難的選擇——從頭開始,還是從某一個Check Point繼續。

例如說,我們可以用64台服務器訓練一個幾百億參數的模型,但很難說利用不同的訓練方式,同時啟動多組服務器進行多個百億參數的模型的訓練。

騰訊科技:不能同時進行,是因為成本的問題嗎?

林詠華:成本問題,包括時間成本。

04 用知識增強對抗AI的幻覺與遺忘

騰訊科技:盡管說有微調機製去調優,但我們在使用中發現,像ChatGPT、Bard這樣的產品,都出現過事實性錯誤,行業將其稱之為“幻覺”,這對大模型來說,是致命的嗎?

林詠華:從模型的通用性角度來看,幻覺問題和今天大模型給我們帶來的各種各樣新的能力相比,或許不是一個很大的問題。假如,休閑的聊天機器人,即便是錯誤答案,可能我們也隻是一笑了之。但如果幻覺被放到一些對專業要求很高的領域,就可能存在致命的問題。

換句話說,大模型“幻覺”的致命與否,取決於模型隻是作為一個閑聊機器人,還是說應用到醫學、法律、甚至是金融等嚴肅或者一旦出錯代價會很高等領域。

所以對於這些應用場景,我們也建議要結合外部的事實知識庫去做知識增強,而不能全部基於大模型早期的訓練數據。

騰訊科技:知識增強是應對“幻覺”的一種解決方案?

林詠華:知識增強是很重要的方案,但也不能100%杜絕“幻覺”的出現。另外,比起 “幻覺”,大家很少會提及的另外一個,但同樣值得關注的概念——“遺忘率”。

其實我們對大模型進行訓練,它很難100%的記住所有的預訓練數據,畢竟大模型的訓練數據量十分驚人,就像人一樣,如果隻見過一兩次,最後是很難逐字成篇幅的記住。據一些外部機構測試,這個“遺忘率”可能甚至會高達百分之九十以上。當然,如果模型越大,數據重複的次數越高,遺忘率越低。

知識增強的價值在於,如果模型真的忘了也沒有關係,可以通過在線知識庫檢索,進而形成專業準確的回答。

騰訊科技:除了“幻覺”,大模型引發的風險也成了高關注的話題,到了需要“踩刹車”的階段了嗎,哪些場景下不得不“踩刹車”,是不是拔網線就可以徹底解決?

林詠華:從我個人的立場來看,目前的大模型、尤其是國內的大模型還沒有那麽厲害(需要踩刹車)。雖然繁華,其中還有很多技術的短板。

大模型雖然目前能力很強,但還需要更多的發展空間,應該繼續向前發展,太早的刹車反倒有可能形成泡沫,核心應該是如何規範人類對大模型能力的應用。

《黑鏡》裏麵有幾集專門講DeepFake,講篡改攝像頭拍攝的畫麵——主角看著視頻監控,監控畫麵沒有人進來,真實的情況實際是有人進來——這項技術的原理並不難,簡單說就是Hack進攝像頭,去掉畫麵中的人像,隻要時延能控製在100毫秒以內,人眼就無法辨別。



*攝像頭被劫持後播放預先記錄的片段和真實片段播放對比 來源:網絡

我看到這一段劇情的時候,真的覺得毛骨悚然,因為我知道這個事情在計算機視覺領域是可以做的,這些能力小模型就有,甚至不需要大模型。

(它讓人震撼的地方在於)一旦視頻監控真的被人被實時篡改,我們還能相信什麽,而且當虛假的信息被混合在真實場景當中時,不是說拔掉網線就可以了解決,你又不能不用監控,對於這種問題,我甚至不知道怎麽去踩刹車。

05 取代人類

騰訊科技:Sam Altman提及過“可擴展監督”的概念,用AI來監管AI,這個設想現在落地的進展如何,比如說現在陸陸續續會有一些“AI換臉”詐騙的問題,AI可以快速的識別並給用戶進行強提醒,以及識別到“AI換臉”行為後的動作進行保護,比如臨時凍結“轉賬”的動作,這樣的設想有機會成為現實嗎?

林詠華:人臉技術實際上已經疊加了不同的手段,包括角度、動作、光影、顏色變化,去識別真人還是視頻, 我也希望行業能夠應用AI技術來對抗這種DeepFake造假。

大模型是新生事物,現階段我們未必有足夠的能力和這樣的潛在風險進行對抗,但如果(破壞力)引起科學、研發的重視,這種風險我相信依舊是有辦法解決的。

騰訊科技:過去大家會認為一些基礎性崗位會被替代,用AI管理AI的時代,一些偏高端的崗位會不會也都會被取代?

林詠華:2014年-2015年開始,我在IBM領導做AI for AI技術,是想替代AI算法工程師,那款AI計算機視覺平台2017年在全球推出,很受歡迎。因為當時熟悉深度學習算法、很有經驗的AI研究人員很少。當時的宣傳點就是“無需昂貴的AI算法工程師”——它的核心是幫助企業解決高端人才短缺的問題。所以,在當時(10年前)考慮的就是人力的替代。

ChatGPT出來之後,藍領還沒被替代,白領先被替代了,也就是腦力勞動者更早被替代,這是因為很多人工智能之外的技術,發展速度相對較慢的,比如機器自動化領域。例如,計算機視覺在缺陷檢測場景下的難題早就被攻克 ,但是由於機械自動化的“掉隊”,一個10毫秒可以檢測出來的問題,機械手需要幾秒鍾才能完成抓取,效率遠不如人工,屬於典型的“肉體趕不上靈魂”。

所以我們也要呼籲,包括機械自動化控製、材料領域都要有更快的發展(跟上人工智能的發展節奏)。

騰訊科技:除了就業崗位取代,情感取代也是一個爭議性話題,尤其是像早期一些電影像《Her》、還有現在的一些APP,都在探索情感取代,俗稱“AI女友”,我想請您從女性的角度來談一談,這種情感的探索是人工智能追求的目標嗎,或者說是我們設想的應用場景嗎?

林詠華:(情感)我覺得也是人工智能探索的目標之一。

NLP(自然語言處理)一直存在情感分析/情感分類的領域,有些現在做的還很好, 它要理解人類語言體現出來的思維和情感,所以理解情感一直是AI領域重要的發展方向,現在的爭論點在於,要不要在生成式AI裏麵附加情感。

我個人認為在生成式AI領域,附加情感的內容輸出對一些特定人群和行業是很有幫助的,比如心理谘詢、護工。我母親就跟我說過,如果真的出現陪護機器人,她會很願意用,因為找保姆陪護,還得考慮兩個人性格合不合。

不過我們也不能簡單化情感,簡單將其理解為“喜怒哀樂”,因為人的心智尤為複雜,需要和心理學研究進行交叉融合,所以在我們的模型評測裏麵,也定義了四個裏程碑階段——文本理解、文本生成、認知能力、人類心智,而人類心智放在了最後一個裏程碑。

騰訊科技:前段時間我們也注意到,已經有創作者利用AI複原已故奶奶的視頻,所以從實際的觀察,確實發現很多人是有這種情感需求的。

林詠華:這確實是一個很重要的領域,當然安全防控也是很重要,它決定了AI這個“精神導師”會給你帶來陽光,還是帶來黑暗。

騰訊科技:AI情感領域的探索,女性科學家會不會更有優勢?

林詠華:會有一定優勢。但我認為還是需要很強的心理學支持,所以我們下一步也會引入一些心理學專家、團隊。

06 人工智能不能沒有女性科學家

騰訊科技:現在越來越多的女性科學家在前沿科技領域成為領軍人物,在人工智能領域,女性科學家有哪些獨特的優勢,而男性是沒有的?

林詠華:人工智能領域有很多東西需要和人的直覺、感官相互融合,女性可能在直覺、感性方麵會比男性有更多的觀察和思考,這在一定程度上有利於女性去做更多直覺上的判斷,然後再用理論去證實。

今年的智源大會,確實有很多論壇上出現了女性演講嘉賓,她們的確都很優秀的領軍人物。

騰訊科技:最後,對剛剛經曆2023年高考即將步入大學的年輕人,尤其是女生,也請您給一些專業性建議?

林詠華:未來人工智能的發展可能會很快,可能會顛覆原來我們對熱門學科的認知,比如編程,計算機學科,我們要考慮未來10年後,它還會不會是熱門的領域、學科。當然,計算機體係、架構這樣深度研究學科,從目前計算的角度來看,還是需要不斷往前探索的,依舊是需要的。

騰訊科技:應用層麵的學科,可能重要性就會弱很多?

林詠華:對,純粹是為了在簡曆裏體現編程,而選擇計算機專業,這種可能就不是一個好的選擇,因為未來會有很多Copilot這樣的產品,能夠讓編程的門檻變得很低,包括一些模型的微調能力,可能會成為各個專業都應該具備的基本技能,反而是如何將這些技能應用到專業領域,比如材料學,利用AI探索新材料就是一個全新的命題。

所以,不是每個人都需要擠到計算機領域裏來,除非你有很宏大的理想,比如超越馮諾依曼,突破現有的計算機體係結構。

對於年輕人,如果未來希望從事科研方向、技術方向,應該強化動手能力,保持讀論文寫文章的能力,這兩項能夠保持多久就保持多久,對未來的發展和職業生涯都會起到重要的作用。

對於女性同學,我想表達的是,人類智慧的發展,其實就是兩性共同構建的過程,人工智能發展如果沒有女性科學家,是一件非常可怕的事情,希望更多的女性加入到這個行列。