喜歡探索這世界的規律,建築設計和股票,也是基督徒
正文

nvidia為什麽在大數據時代勝出

(2023-03-28 23:54:49) 下一個

Nvidia10年前就開始用AI進行大數據計算。

現在的大數據運算就是要窮舉很多解法,從中找出最優解。過程是通過同時計算(或叫並行計算)的方法來節省時間,然後從中找到最優解法,這就解釋了為什麽GPU可以做這個工作,而且是唯一的方法。GPU在這過程可以優化算法來加快這個計算速度,比如nvidia用AI來幫助GPU自動過濾掉不需要計算的解法,這樣極大提高效率。又比如在遊戲中,nvidia通過已經知道的pixel來推測其他未知的pixel 顏色和位置,這種AI的用法可以極大加快遊戲的顯示速度。。

大數據計算不單是文字和數字計算,慢慢也延伸到圖像計算。這次剛過去的GTC會議,Jensen huang介紹nvidia開始用矢量vector數據庫來給圖形分類和計算了,這個可以把圖形搜索提高速度1 百萬倍,而且信息比起raster光柵圖像是絕對可靠的,非常了不起。

比起並行計算,目前所知更快的是量子計算。經典計算機使用晶體管作為比特(bit),以晶體管的開閉狀態分別表示 0 和 1。量子計算機使用兩態量子係統比如電子的自旋、光的偏振等作為量子比特(qubit),由於量子態疊加原理能夠同時表示 0 和 1。雖然量子計算機每一次的測量結果都類似“上帝擲骰子”會發生不同,但是隻要量子算法設計合理,量子計算機運算結果中出現概率最大的結果就是正確結果。麵對較為複雜的計算問題,經典算法需要進行各態遍曆等重複操作,算法的複雜度較高,而量子算法則能較快得到結果,隻需少數測量取樣得到計算結果概率即可知道正確結果。

這次GTC會議,Jensen告訴我們nvidia也可以開放量子計算模擬平台給全世界科學家用了,nvidia不單單抓住現在的大數據計算密碼,它也在關注最終的量子計算。

Nvidia用看似簡單的平行計算策略把前10年到未來10年的計算方法和全世界算力全部招攬在自己的業務裏,那麽它的股價是多少? 這就是最近半年MF全力買進nvda的原因。

[ 打印 ]
閱讀 ()評論 (0)
評論
目前還沒有任何評論
登錄後才可評論.