黃仁勳回答了業界最關注的問題,怒讚中國電動車企

文章來源: - 新聞取自各大新聞媒體,新聞內容並不代表本網立場!
被閱讀次數
黃仁勳回答了業界最關注的問題,怒讚中國電動車企

在英偉達震撼業界的CES發布會次日,CEO黃仁勳舉辦了一場內容豐富的溝通會,在一個多小時的問答環節中,他一口氣回應了與會者關於產品戰略、技術創新、行業合作等方麵的20個問題,為此次發布會的諸多細節做出了進一步澄清。

騰訊科技在會後第一時間整理了最完整的溝通會實錄。

溝通開始,黃仁勳就分析了AI PC之所以賣不好的原因,因為雲端部署更靠譜,隻有少量技術人員會有AI端側部署需求。

在交流環節,他還盛讚了中國的電動汽車行業。認為它們的技術非常先進,自動駕駛能力也非常出色。正在倒逼特斯拉等公司繼續發展。

針對遊戲業界大家關心的AI生成是否會替代渲染的問題,黃仁勳明確進行了否定。他說雖然DLSS 4係統利用了AI生成,但渲染那部分才是給生成以基礎的部分。未來渲染的3D資料,仍會是AI畫麵生成的基石。

​對於另一個業界關注的問題,即大模型轉向推理迭代時成本暴增怎麽辦。黃仁勳表示,Blackwell NVLink 72的推理性能預計將達到Hopper係列水平的30-40倍,這種性能的顯著提升將直接轉化為成本的等比例下降。此外,他還提到了將o3等推理模型的答案蒸餾,重新後訓練大模型的技術能顯著降低成本。而這正是近期Deepseek和Deepmind都在嚐試的路徑。

另外,在這場問答中,黃仁勳對幾個核心產品的定位作出了更清晰的解釋。比如針對Project DIGITS AI超級計算機,他強調這是為了解決AI開發者"難以負擔持續雲端開發成本"的實際痛點;而Cosmos係統的構建,則是為了讓機器人能理解物理世界。

在回答關於新一代顯卡定價策略的問題時,黃仁勳認為:"追求最佳性能的用戶往往不會因為100美元的差價而降低配置需求。"而且他還自豪的強調,本次50係列顯卡的最低端版本都和上一代最高端持平。

這場問答不僅延續了發布會的熱度,更揭示了英偉達在AI時代的戰略布局和技術創新路徑。從回答中可以看出,英偉達正在經曆一次重要的轉型:從傳統的顯卡製造商,向全方位的AI計算平台公司邁進。

以下為訪談全文:

問題1:英偉達發布了AI PC相關產品,但這類產品今年的銷量並未如預期般大幅增長。你認為英偉達是否有能力或潛力去改變這一現狀?是應該積極推動這類產品的普及,還是考慮終止相關項目?另外,你認為到目前為止,是什麽因素阻礙了AI PC的廣泛采用?

黃仁勳:人工智能起源於雲端,且主要是為雲端設計的。

回顧英偉達過去幾年的增長情況,不難發現這些增長主要源自雲端。因為訓練這些龐大的人工智能模型需要人工智能超級計算機,而這些模型在雲端部署起來相對容易。這些在雲端運行的模型被稱為端點,更具體地說,是API端點。

盡管如此,我們依然認為存在設計師、軟件工程師、創意人員以及熱愛在個人電腦上開發人工智能的愛好者群體。

當然,這裏存在一個挑戰,即由於人工智能主要在雲端運行,雲端匯聚了大量的活動以及工程工作,而專注於將人工智能應用於這一領域的人卻寥寥無幾。事實證明,Windows電腦實際上非常適合執行這類任務,這個東西叫做WSL2(Windows Subsystem for Linux 2)。

WSL2本質上是一個在Windows內部運行的虛擬機,作為學習空間中的第二個操作係統。它的創建初衷是雲端原生的,支持Docker容器,並為編碼提供了完美支持。

因此,我們計劃將為雲服務開發的人工智能技術,通過確保與PC的兼容性,利用WSL2的支持功能,將雲端環境帶到個人電腦上。WSL2能夠實現這一點,讓我們可以將雲端的所有能量、所有工程成果以及智能雲的所有動態直接引入個人電腦。

我認為這就是正確的解決方案,對此我感到非常興奮。所有的PC原始設備製造商也都對此充滿了期待。我們將結合PC硬件、Windows係統以及WSL2,從而能夠充分利用雲端的所有資源,並將其直接應用於個人電腦。

問題2:你是否可以解釋下在發布會中宣布的諸多進展的重要性,比如最新的大模型,特別是對於那些對人工智能領域不太了解的人?



黃仁勳:英偉達本質上是一家科技公司,而非傳統的消費品公司。我們的技術在很大程度上正在影響,並將持續塑造未來消費電子產品的走向。

昨天我們宣布的眾多重要事項中,有一項是關於構建一個能夠理解物理世界的基礎模型Cosmos。

正如GPT是理解語言的基礎模型,Stable Diffusion是理解圖像基礎模型一樣,他們掌握了摩擦力、慣性、重力等基本概念,理解物體的存在與恒常性,以及幾何與空間關係。這些都是孩子們天生就懂的事情,但他們以一種當前語言模型所缺乏的方式理解物理世界。

因此,我們堅信需要一個專門用於理解物理世界的基礎模型。

現在,我們已經創建了這個模型,之前你可以用GPT完成的所有任務,以及你可以用Stable Diffusion完成的所有圖像生成任務,現在都可以借助我們的Cosmos模型來實現。例如,你可以與它進行對話,與這個物理世界模型交流,詢問:“當前世界裏有什麽?”它會根據攝像頭捕捉到的內容來回答。

Cosmos是一個世界模型,它能理解這個世界。

為何我們需要這樣的東西?原因在於,若想讓人工智能在物理世界中理智且有效地運作,它必須具備對物理世界的理解能力。

那麽,我們能用這個模型做什麽?自動駕駛汽車需要理解物理世界,機器人也需要理解物理世界。因此,Cosmos這樣的模型是實現多模態的起點。

就像GPT模型推動了我們今天所見證的眾多人工智能應用的發展,Llama對於人工智能的各種活動至關重要,而Stable Diffusion則激發了圖像和視頻生成模型的發展一樣,我們期望Cosmos能夠成為推動下一波人工智能創新的關鍵。

問題3:在發布會中,你提到我們正在見證一些新的“人工智能縮放定律”出現,特別是在測試時間計算(Test Time Compute)方麵。我認為OpenAI的o3模型表明,從計算角度來看,縮放推理的成本非常高昂,他們甚至在ArcAGI的測試中花了幾千美元去解題。英偉達正在采取哪些措施來提供更具成本效益的人工智能推理芯片?如何從測試時間計算縮放中獲益?

黃仁勳:首先,測試時間計算問題的直接解決方案,無論是在性能上還是在成本承受能力上,都是增加我們的計算能力。這就是為什麽Blackwell NVL 72的推理性能可能是Hopper的30-40倍的原因。

通過將性能提高30-40倍,你可以將成本降低30-40倍。因為數據中心的成本差不多。摩爾定律在計算曆史上之所以如此重要,就是因為它推動了計算成本的下降。

回顧過去的二十年,我們已經成功地將計算的邊際成本降到了原來的百萬分之一,這一變革使得機器學習成為可能,我們要做的就是讓電腦去搞定一切。類似的情況也將在推理領域上演,我們將持續提升性能,這也將促使推理的成本大幅下降。

思考這個問題的另一種方式是:當前進行測試時間計算時,需要進行大量的迭代,通過測試時間的縮放來推斷出答案,而這些答案,隨後會成為下一次預訓練或後訓練的數據來源。

因此,我們現在所收集的一切信息,包括正在持續收集的數據都將匯入龐大的數據池中,用於模型的預訓練和後訓練。

我們將持續推動這一過程向訓練階段深化,因為利用超級計算機提升智能並訓練模型,進而降低每個人的推理成本,是一種更為經濟高效的方式。

當然,這需要時間。因此,這三種縮放定律將會並存一段時間。無論如何,它們都會在一段時間內同時發揮作用。

一方麵,我們會不斷努力提升所有模型的智能水平;另一方麵,人們會不斷提出更加複雜的問題,並期待得到更加智能的回答。更智能的事物將經受住時間的考驗,其發展水平會持續提升。這個循環將會持續不斷地進行下去。

問題4:英偉達增加了在以色列的運營活動,使得你們成為當地的最大雇主之一。2024年英偉達擴大了針對以色列公司的投資組合。你們打算如何進一步增加在以色列的投資?我們是否很快就會聽到一些新的項目並購消息?你認為有機會從那裏招募高技能人才嗎?

黃仁勳:我們幾乎從世界各地招募頂尖人才。在英偉達的官方網站上,對於獲得我們招募職位表現出濃厚興趣的候選人提交的簡曆已經突破了百萬大關。然而,我們公司目前僅有32000名員工。由此可見,人們加入英偉達的熱情之高漲。在以色列,我們麵臨著巨大的發展契機。回想起最初收購Mellanox時,他們僅有2000名員工。時至今日,我們在以色列的團隊已經壯大到近5000人。可以說,我們是以色列發展最快的雇主。

我們的以色列團隊開發了NVLink、SpectrumX,我為那個團隊感到無比自豪。它所展現的能量讓這一切變得不可思議。另外,我們今天沒有任何交易合作要宣布。

問題5:在DLSS4的框架下,英偉達通常聚焦在編寫圖形和相關領域。我想知道你們是否會進一步拓展至多幀生成領域,DLSS4是否限於傳統的兩幀渲染與中間幀插值?此外,還有文本壓縮等技術,這是否需要推動遊戲開發者去采用?這是否可以通過驅動程序來實現,從而惠及所有遊戲?

黃仁勳:很快就會有。

我們對Blackwell所做的改進是,增加了著色器處理器處理神經網絡的能力。你可以將代碼與神經網絡混合,並放入著色器管線中。

之所以這一點如此重要,是因為紋理和材質是在著色器中處理的。如果著色器無法處理人工智能,那麽你將無法享受到神經網絡帶來的某些算法進步的好處。如今,紋理壓縮技術已經取得了顯著的進步,其效果也更為出色。

回顧過去七年,我們所使用的壓縮算法已經實現了巨大的飛躍,使得壓縮比得到了顯著提升。鑒於現代遊戲體積龐大且包含大量紋理,這種額外的5倍壓縮能力無疑是一個巨大的優勢。

此外,材料的特性也是至關重要的。

當光線穿過材料時,其各向異性會導致反射方式的不同,從而能夠清晰地區分出金色塗料與黃金之間的差異。這種特性本質上源於原子層麵,是光線在微觀原子結構上反射和折射方式的直接體現。

然而,用數學語言來精確描述這種特性卻異常困難。但我們可以借助人工智能的力量來學習並模擬這些複雜的材料特性。這種神經材料的應用,無疑為計算機圖形學領域帶來了革命性的突破,使得渲染效果更加生動逼真,達到了前所未有的高度。

值得注意的是,無論是紋理壓縮還是神經材料的應用,都離不開內容方麵的精心製作。開發者需要首先以這種方式來開發和優化內容,我們才能順利地將這些先進技術整合到圖形渲染流程中。關於DLSS技術中的幀生成部分,它並非簡單的插值技術。確切來說,它是一種真正的幀生成技術你並非在回憶過去,而是在預測未來。DLSS 4,正如大家所知,是完全精心打造的。

問題6:我注意到,RTX 5090與RTX 5080之間差距很大。RTX 5090的CUDA核心數量是5080的兩倍多,價格也翻了一番。為何旗艦與次旗艦之間的差距如此明顯?

黃仁勳:原因很簡單,一旦有人追求最好的,他們就隻追求頂級體驗。

世界上並沒有那麽多細分領域。大多數愛好者如果想要最好的,即使稍微降低一點配置、節省100美元,他們也不在乎。對於他們來說,最重要的是品質。當然,2000美元的花費不算小,但其價值是值得的。

要記住,這些技術將融入你的家庭影院環境,你可能已經在顯示器和揚聲器上投資了約1萬美元。在這種情況下,你肯定會選擇最好的配置。

問題7: 你提到內存的時候提及了美光,那為什麽在英偉達的產品中還會使用三星和SK海力士的內存?

黃仁勳:我認為三星和SK不生產顯卡。啊?他們也生產?那別告訴他們我這麽說過。

正如你所知道的,SK和三星是我們最大的供應商之一。你要知道,三星是最早一批參與HBM研發的企業,我們最早使用的HBM產品就來自於三星,我相信三星也會在HBM上取得成功。

問題8:AI生成在當下的遊戲中越來越重要。你是否想象過這樣一個未來:傳統渲染的畫麵將不再是主流,所有畫麵都會由AI生成?

黃仁勳:不會。

還記得有人首次提出:“為什麽不直接用ChatGPT生成一本書?”當時內部沒人預料到這一點。原因在於,你需要為它提供基礎,這就是條件反射的概念。現在我們根據上下文調整對話或提示內容。回答問題前,必須先理解問題的背景。上下文可以是PDF、網頁搜索,或者你明確提供的信息。

電子遊戲也是如此。你需要為它提供背景,不僅在故事層麵上有意義,還要具備全球視野和空間相關性。你為遊戲提供上下文的方式是,首先給它一些幾何圖形或紋理片段,遊戲係統便能基於這些生成內容,就像訓練模型一樣。這與ChatGPT中上下文處理的方式相似。在企業應用中,這叫做RAG(檢索增強生成)。

未來,3D圖形將基於3D基礎條件生成。以DLSS4為例,在三千三百萬像素的四幀圖像中,我們隻渲染了兩幀圖像,另外兩幀是生成的。這難道不是一個奇跡嗎?之所以這件事如此重要,是因為其中兩百萬像素必須精確被渲染成正確的圖像。然後依靠它,我們才能從中生成3100萬像素。這讓我們節約了大量本來應該去渲染3100萬像素的計算資源。

這種條件設定不僅在像素渲染中有效,也能應用於幾何圖形、動畫、頭發等渲染元素。這意味著未來的電子遊戲將擁有更加真實和細致的細節。如今,人工智能與計算機圖形學已深度融合,我們的神經渲染係統已經成為行業標準。在Omniverse中,我們也采用了類似的方式。Omniverse與Cosmos相連,因為它是Cosmos的3D生成引擎。

通過Omniverse,我們可以完全控製渲染過程,盡量減少幹預,生成更多內容。當我們減少對模擬的控製時,反而能創造出更廣闊的世界,生成引擎在背後賦予這些世界美麗的呈現。

問題9:在這次的CES中,我們見證了英偉達在圖形技術方麵取得了顯著進展,特別是在電子遊戲和數字人工智能領域。你是否看到GPU開始處理未來遊戲、虛擬現實(VR)以及YouTube內容創作中的更複雜邏輯?這是否意味著圖形和計算邏輯的融合,尤其是GPU與VR技術的結合,已經成為未來發展的目標?

黃仁勳:當然。原因很簡單,GPU是Blackwell架構,而Blackwell不僅能生成文本和語言,還能進行推理。整個AI代理、完整的機器人係統都可以在Blackwell上運行。就像它可以在雲端和汽車中運行一樣,我們也能在Blackwell上執行完整的機器人操作流程。我們可以在Blackwell上處理地麵動力學或粒子物理。

在機器人、汽車、雲端和遊戲係統中都是相同的CUDA架構。這是我們做出的一個重要決定。

原因在於,軟件開發者需要一個統一的平台,他們希望創建的應用能夠在任何地方運行。在發布會上,我也提到了,“我們將在雲端創建AI,並將它運行在你的PC上。”還有誰能做到這一點?因為它們完全基於相同的CUDA平台。

事實上,雲端的容器會將AI應用下載並在你的PC上運行。例如,SDXL(Stable Difusion XL)MIM技術將表現的非常出色,FluxMIM也很強大,LammaLIM則可以直接從雲端下載並運行在你的PC上。這種方式也會在其他設備上實現相同的效果。

問題10:為什麽2017年推出的顯卡係列(配備大容量VRAM),即便目前大多數遊戲在常見分辨率下並不需要這麽多顯存,仍然在一些高性能顯卡中(如RTX 3070)表現優異,尤其是在1080p分辨率下。在上一代顯卡打破性能瓶頸的情況下,還有什麽必要提升呢?

黃仁勳:遊戲賽道的競爭特別激烈,尤其是在一些國家已經開始做出這些突破時。我們正在嚐試平衡計算引擎和顯存之間的關係,以找到合適的平衡。我們一直在努力找到這個平衡,但這就是我們追求的目標。如果顯存過低,計算能力就無法得到充分發揮;而如果顯存過大,那麽計算能力可能就不足以支持這些資源。因此,我們一直在尋找這種平衡。

問題11:毫無疑問,超大規模企業對貴公司產品的需求是存在的。能否具體講一下貴公司在擴大收入基礎、吸引企業客戶方麵的緊迫感,尤其是在亞馬遜和YouTube等公司不自行開發AI芯片的背景下,政府建設自己的數據中心以與超大規模雲服務商競爭。您感受到的緊迫性有多強?另外,您能詳細說明一下在企業和政府方麵的需求或進展嗎?

黃仁勳: 我們的緊迫感源自於為客戶服務。我從未感到壓力,因為我的客戶中有些也在製造其他芯片。我們隻是在構建不同的東西。我很高興他們現在有了新的數據雲,並且正在用視頻開發自己的產品,這證明了他們做出了明智的選擇。我們的技術發展速度非常快。每年性能翻倍,同時成本也幾乎減半,這比摩爾定律的速度還要快,堪稱最佳時代。

目前,企業的關鍵在於兩個行業的服務:軟件行業和解決方案工程師,後者幫助客戶將軟件適配到業務流程中。我們的戰略是與這兩個生態係統合作,幫助它們構建具有自主能力的AI。

例如,與ServiceNow的合作很成功,我們將推出一係列基於ServiceNow的智能代理,提升服務和工業支持的效率。這就是我們在解決方案創新方麵的策略之一。還有,我們與埃森哲和勞埃德等公司的合作也非常出色,特別是埃森哲,在幫助客戶將AI整合到他們的係統中方麵做得非常好。因此,我們的首要任務是推動整個生態係統發展AI,因為這與開發軟件不同,它需要一套專門的工具。

總之,過去一年我們在構建自主AI工具包方麵取得了很大進展,現在關鍵是如何部署這些技術並加速應用。

問題12: 你好,Jensen,昨晚看到50/70係列的發布和價格上漲,同時還保持了我們預期的性能,真是讓人興奮。那麽關於60係列,我們可以期待些什麽呢?

黃仁勳:真不可思議,我們昨晚發布了四款RTX Blackwalls,最低性能的那款就達到了目前世界上最高GPU的性能。這讓我們更能感受到AI的強大能力。沒有AI、沒有張量核心以及DLSS4的創新,這種能力根本不可能實現。至於其他內容,我沒有什麽新消息可以宣布。

問題13:你在分享中提到了Agent AI。像AWS、微軟、Salesforce這樣的公司,它們也有平台並鼓勵客戶進行開發,你是如何與它們合作的?你們是如何起步的?

黃仁勳:英偉達是一家科技平台公司,而非直接麵向企業的公司。

我們的核心目標是構建工具包、庫和人工智能模型,尤其是針對像ServiceNow這樣的企業級工具包。我們主要關注的領域包括ServiceNow、SAP、Oracle、Synopsys、Cadence和西門子等公司。雖然這些公司在各自領域有豐富的積累,但他們並不希望將精力投入到計算層和AI庫的開發上。因此,我們為他們提供了這一解決方案。

這個過程非常複雜,因為我們討論的是如何將像ChatGPT這樣的技術嵌入到容器中,並優化微服務和端點。

為了確保這些產品能夠在任何雲端環境中高效運行,我們開發了NIM和NEMO技術。NIM和NeMo可以被看作類似於CUDA及其CUDA-X庫的技術。

值得強調的是,這些技術並非為了與客戶競爭,而是為了支持他們。事實上,許多雲服務提供商(CSP)已經開始使用NeMo來訓練大型語言模型或引擎模型,且其雲端已部署了大量的NIMs和NEMO,工作方式類似。

CUDA-X庫對平台至關重要,它極大推動了深度學習技術的發展。我們為行業創建了這些庫,避免他們從零開始開發,節省了大量的時間和資源。通過提供NeMo和NIM等技術,我們幫助行業專注於其核心業務,無需自行構建複雜的AI基礎設施。

問題14:除了雲端和本地計算的平衡,你認為當前非遊戲PC市場中最大的未滿足需求是什麽?是處理能力、靈活性,還是其他方麵的技術瓶頸?

黃仁勳:DIGITS代表深度學習GPU智能訓練係統,它是一個麵向數據科學家和機器學習工程師的平台。如今他們大多依賴個人電腦、Mac或工作站來進行相關工作。坦白說,對於大多數人的電腦來說,運行機器學習和數據科學任務,像使用pandas(Python 數據處理庫)等工具,並不是最優選擇。

而現在,我們有了一個小巧的設備可以放在桌子上使用,你與這個設備的互動方式,類似於與雲端對話的方式。為什麽你需要這樣的設備呢?原因在於,大多數開發者通常需要長期依賴機器工作。如果始終在雲端環境中進行開發,費用可能會迅速累積。因此,我們提供了為個人開發雲的解決方案。這款設備特別為數據科學家、學生以及需要全天候在線的工程師設計,幫助他們在本地完成工作,減少雲端費用。

我認為DIGITS填補了人工智能發展中的一個重要空白。人工智能最初是在雲端起步的,未來也將回歸雲端。然而,這使得普通計算機難以跟上這一進程。因此,我們需要像DIGITS這樣的設備,來彌補這一差距。

問題15: 最近Twitter上有人提到“奇點即將到來”的觀點,讓我很震驚。在大會分享中,你也提到“機器人時代將到來”。如果這是真的,機器人會無處不在並迅速加速發展,可能會從會議響應、周圍的財產開始。你認為機器人未來會朝哪個方向發展?我們應該如何應對?

黃仁勳:超級智能的概念並不陌生。比如英偉達公司中許多人在各自的領域都非常聰明,在我看來,他們都是超級智能的人。坦白說,我認為自己智力平平,卻被這些超級智能的人所包圍。我更願意被超級智能包圍,而不是其他選擇。因此,我非常欣賞我的電子團隊、公司領導層以及科學家們,他們的聰明才智讓我敬佩。

這就是未來的模樣。你將會擁有超級智能的AI助手,幫助你完成寫作、分析問題、進行供應鏈規劃、編寫軟件、設計芯片等各種任務。數字營銷活動也可以借助這些智能助手來推動播客的開展。簡而言之,你將隨時擁有超級智能助手協助完成繁瑣的工作,他們總是在你需要的時候為你服務。

問題16:我記得在2017年,英偉達在CES上展示了一款演示車,並與豐田在GDC(遊戲開發者大會)上達成了合作。那麽2017年和2025年之間有何不同?2017年所麵臨的挑戰是什麽?而2025年的技術創新又帶來了哪些變化?

黃仁勳:未來所有的交通工具都會具備自動駕駛能力,或者至少能夠實現自動化操作。未來,所有汽車雖然依然可以選擇手動駕駛,但每輛車都具備自動駕駛的能力。假設我們從現在開始,全球有10億輛車在路上,目前沒有一輛是自動駕駛的,到20年後,這10億輛車將都能實現自動駕駛,雖然我們仍然可以選擇自己駕駛。這個趨勢現在已經非常清晰。五年前,關於技術的成熟度我們還不確定,但現在可以非常肯定,傳感器技術、計算機技術和軟件技術已經非常成熟,我們將能夠實現這一目標。

傳統汽車公司想法的轉變有兩個關鍵因素。首先,特斯拉的影響力不容忽視,但最重要的影響力可能來自中國。中國的新興電動汽車公司,如比亞迪、小鵬、蔚來和小米等,它們的技術非常先進,自動駕駛能力也非常出色,並且已經開始在全球範圍內推廣。這些技術的突破真正設立了未來汽車必須具備強大自動駕駛能力的標準。

我認為世界已經發生了變化。雖然技術成熟的過程花費了一些時間,我們的認知也在不斷發展,但現在我認為,自動駕駛的未來已經非常接近現實。同時,Waymo是我們重要的合作夥伴,你知道,Waymo目前已經在舊金山等地廣泛應用,且越來越多的人開始選擇使用它。

問題17:關於昨天發布的新模型,特別是Cosmos、NIMS。這些模型能夠在智能眼鏡上運行嗎?或者在開發這些型號時,有考慮過智能眼鏡嗎?因為考慮到行業發展的方向,似乎未來很多人會通過智能眼鏡來體驗AI代理。

黃仁勳:我對可以連接到雲數據的智能眼鏡感到非常興奮。比如我們在閱讀時,智能眼鏡可以幫助你理解不認識的單詞。AI的應用與可穿戴設備和虛擬現實技術(如眼鏡和手機)相結合,所有這一切都非常令人興奮。我會使用Cosmos的方式是,Cosmos在雲端提供視覺理解。如果你想將其嵌入到設備本身中,那麽你可以使用Cosmos來提取一個小型模型。因此,Cosmos成為了知識轉移的工具,並將它的知識轉移到一個更小的AI模型中。

之所以能做到這一點,是因為較小的AI模型會變得非常專注,不容易被泛化。它變得非常領域特定,因此可以將知識更精準地轉移,並將模型蒸餾成一個更小的版本。這也是為什麽你總是從構建基礎模型——那個大的模型開始,然後逐步構建更小的模型,最後得到更小、更精細的模型進行蒸餾(指將大模型的知識轉移到小模型中,以提高效率)的原因。

問題18:在工作過程中,一個主要的挑戰是處理與Windows和DirectX相關的各種問題。你打算采取哪些措施來幫助團隊減少實施中的摩擦,並激勵微軟與你合作,確保他們改進DirectX?

黃仁勳:無論DirectX API如何發展,多年來,微軟始終保持著與行業的高度合作精神。我們與DirectX團隊的關係非常良好,正如您所預見的那樣。因此,在我們推動GPU技術進步的過程中,如果API需要改變,他們對此感到非常失望。大部分使用DLSS時的工作,其實並不需要更改API。實際上需要調整的是引擎本身,因為它基於語義,需要理解場景,而不僅僅是簡單的函數調用。因此,場景更多是通過虛幻引擎、寒霜引擎或其後續引擎來構建的。

這也是為什麽DLSS幾乎已經被整合進現今所有主流引擎的原因。一旦DLSS的底層架構搭建完成,更新DLSS核心時,即使遊戲是為3D開發的,它仍然能夠利用DLSS 4的一些優勢,後續版本也會類似。因此,我們為場景理解AI搭建了基礎設施,這種AI可以基於場景的語義信息進行處理。

問題19:人工智能在多種不同方式中使用起來有些複雜,你是否認為生態係統中還有缺失的部分?

黃仁勳:我確實認為有。首先,語言處理和認知人工智能正在逐步提升AI的認知能力,這需要多模態的支持和大規模推理等能力。同時,人工智能並非單一的模型,而是由多個模型組成的係統。代理型AI本質上是這些模型的集成,比如用於檢索、搜索、生成圖像、推理、規劃等模型。這種多模型係統的創新,推動了人工智能的應用,而不僅僅是基礎AI的發展。

隨著基礎AI的不斷改進,行業也意識到,推動人工智能發展的關鍵是物理人工智能。物理AI同樣需要基礎模型,正如認知AI依賴基礎模型一樣,GPT-3就開啟了強大能力的新篇章。為了實現物理AI的基礎模型能力,我們發起了Cosmos項目,以達到這一能力水平並將其推向全球。

一旦達成,這將激活一大批終端應用案例和下遊技能,基礎模型還可以作為教師模型,指導其他任務的執行。同時,Cosmos與Omniverse的合作,旨在將兩個係統連接起來,形成物理落地的基礎框架,從而控製生成過程。通過這種方式,我們可以得到明確、可信的結論。

總之,Cosmos和Omniverse的結合,可能成為未來機器人產業發展的關鍵起點,這是行業中目前缺失的核心要素。

問題20:有關於貿易和關稅的問題,它們仍然在當選的美國總統的腦海中占據重要位置。關稅和貿易政策可能會影響到我們所有人。你對此有何擔憂嗎?

黃仁勳:我不擔心這個,我相信政府會為自己的貿易談判做出正確的決策。我們會根據情況做好自己能做的。

查看評論(8)