NVIDIA:671 億參數的 DeepSeek-R1 模型現已作為 NVIDIA NIM 微服務在

所有跟帖: 

build.nvidia.com 上預覽,您可以放心地進行實驗並構建自己的專用服務 -Helen1817- 給 Helen1817 發送悄悄話 Helen1817 的博客首頁 (0 bytes) () 01/30/2025 postreply 19:54:28

雙贏!繼續買入 nvda... -Helen1817- 給 Helen1817 發送悄悄話 Helen1817 的博客首頁 (0 bytes) () 01/30/2025 postreply 19:55:02

謝謝,握爪,lol。deepseek和nvidia我都喜歡,隻有Nvidia目前沒有diss或者汙蔑deepseek -newbiestock- 給 newbiestock 發送悄悄話 (117 bytes) () 01/30/2025 postreply 20:01:42

主要是 close ai,正在圈錢的節點上,被攔腰一刀,此時此刻,請稍微同情下奧特曼苦惱的心情 -Helen1817- 給 Helen1817 發送悄悄話 Helen1817 的博客首頁 (0 bytes) () 01/30/2025 postreply 20:05:07

only nuts invested a company with so many dramas -遠走他鄉- 給 遠走他鄉 發送悄悄話 (49 bytes) () 01/30/2025 postreply 20:28:43

鬧了半天是圈錢啊 -victor1988- 給 victor1988 發送悄悄話 (0 bytes) () 01/30/2025 postreply 20:31:19

不僅是他,相關AI的Startup公司的估值都受到打擊,特別是軟件AIstartup公司,沒看很多人很煩,急得跳腳?硬件 -trimtip- 給 trimtip 發送悄悄話 (114 bytes) () 01/30/2025 postreply 21:36:06

2020年發布的ChatGPT-3有1750億參數 -victor1988- 給 victor1988 發送悄悄話 (0 bytes) () 01/30/2025 postreply 20:01:34

2023年發布的ChatGPT-4的參數量未公布,普遍認為是萬億規模 -victor1988- 給 victor1988 發送悄悄話 (0 bytes) () 01/30/2025 postreply 20:03:21

這才是正道,反應速度夠快。海納百川有容乃大。難怪老黃可以做大做強。 -mtl2023- 給 mtl2023 發送悄悄話 (0 bytes) () 01/30/2025 postreply 20:03:27

It is 671 billion parameters, not 671 億. -car_accident- 給 car_accident 發送悄悄話 (371 bytes) () 01/30/2025 postreply 20:17:11

這個連帳號都不要. 幫deepseek 解DDOS的圍. -他鄉之客- 給 他鄉之客 發送悄悄話 (0 bytes) () 01/30/2025 postreply 21:19:31

厲害!老黃還是展示了自己作為AI芯片領域創始人的實力 -Wei_PDX- 給 Wei_PDX 發送悄悄話 (48 bytes) () 01/30/2025 postreply 21:29:29

請您先登陸,再發跟帖!