評論: 中國AI“刷屏”矽穀 性能比肩OpenAI 成本僅1/30

隻有登錄用戶才能發表評論,點擊此處登錄    返回新聞帖
心情夏秋 發表評論於 2025-01-27 07:10:19
有膽的該去做多
心情夏秋 發表評論於 2025-01-27 07:07:23
早上開盤英偉達暴跌,台基電也暴跌
誰在做空?
cfol2012 發表評論於 2025-01-27 05:40:00
這個開源將普惠全世界. 這些AI大廠們肯定會抄DS. 加上它們已有的硬件將迅速推進AI. 屆時DS還能趕上或超越那就更曆害了. 問題是對大規模的硬件投入會不會暫緩.比如說現在這個500丅的星門計劃
ajaychen_2024 發表評論於 2025-01-27 01:43:10

開源的,歡迎作出自己的貢獻
wjhwsh 發表評論於 2025-01-26 21:11:29美國公司抄襲DeepSeek算法和代碼 有問題嗎?
wjhwsh 發表評論於 2025-01-26 21:11:29
美國公司抄襲DeepSeek算法和代碼 有問題嗎?
ajaychen_2024 發表評論於 2025-01-26 20:41:25
現在那些美國大AI企業老板就會問,為什麽你們弄得這麽貴,中國人搞的這麽便宜又好用?我們也要學他們,在美國搞不好,就搬到中國去搞,我們投的錢也是錢
罵人不好 發表評論於 2025-01-26 19:17:33
完全同意破棉襖網友的說法,其它的大型模型一定會借鑒Deepseek的思路的。這一次Deepseek在算力落後的情況下能做到這樣的突破是非常了不起的。
大豬頭- 發表評論於 2025-01-26 19:11:54
這年頭,連敬仰一下文學城群眾的無所不知的知識儲備都給說成是顯擺,嗬嗬,文字城群眾的謙虛精神讓人自愧不如啊
ajaychen_2024 發表評論於 2025-01-26 18:55:32
美國是在掐自己的脖子

futufutu 發表評論於 2025-01-26 14:02:02已經鬆手了?掐脖子就吹牛逼? 真正牛逼!
Earth_Rover 發表評論於 2025-01-26 10:53:33又自嗨了!一掐脖子就翻白眼,一鬆手就吹牛逼。
破棉襖 發表評論於 2025-01-26 18:55:01
這回DeepSeek應該算是一次重大算法改進,我覺得OpenAI,Google,X,Tesla如果借鑒這套改進算法(RL,多頭注意力集中,蒸餾,濃縮),會導致大語言模型和自動駕駛更加突飛猛進的進展,因為這些大公司算力充沛,數據量大,積累了無數性能較低的各種各樣的初級產品或次品模型,巧用DeepSeek的方法,能把以上資源利用起來,做出DeepSeek無法想象的工作。
========
罵人不好 發表評論於 2025-01-26 18:10:45 Deepseek的確是一件很牛的事情。就是我說的,華人在現有的技術框架下,找到更好的途徑,工程應用落地創新的能力是很牛的,甚至可以說是天下無敵的。不過在基礎研究是上,比如新算法的提出,芯片和算力上的受限,和美國還有些差距。不過可以肯定的是,AI領域,中美兩強比其它的國家的領先優勢巨大,未來就是中美的競爭的局麵了。

對不住了,又信口開河了一下。抱歉抱歉。
ajaychen_2024 發表評論於 2025-01-26 18:50:09
人類可以用AI幫忙做更多更複雜的工作,AI現在還沒有辦法完全取代人類,

小毛er 發表評論於 2025-01-26 11:56:56價格便宜主要好是不需要創新和用更便宜的人工。中國可以把什麽都做成白菜價。然後大家一起沒錢賺一起死。
ajaychen_2024 發表評論於 2025-01-26 18:47:20
你老板讓你用AI做個APP,你竟然上班摸魚用AI問習和彭的八卦?這可要扣錢的。

中國夢姑 發表評論於 2025-01-26 11:42:46這種狗屁AI,問他習近平和彭麗媛的事,全部拒絕
罵人不好 發表評論於 2025-01-26 18:20:37
你如果是AI的大拿,不妨教大家點實際的東西。這裏隻是個中文論壇,不是什麽AI專家的論壇。大家不過是聊聊天而已,你顯擺個啥?無聊不無聊?淺薄不淺薄?
罵人不好 發表評論於 2025-01-26 18:13:23
本地運行要看是什麽模型了。小型的當然可以。大型的GPT-4你給我本地運行一下看看?
罵人不好 發表評論於 2025-01-26 18:10:45
Deepseek的確是一件很牛的事情。就是我說的,華人在現有的技術框架下,找到更好的途徑,工程應用落地創新的能力是很牛的,甚至可以說是天下無敵的。不過在基礎研究是上,比如新算法的提出,芯片和算力上的受限,和美國還有些差距。不過可以肯定的是,AI領域,中美兩強比其它的國家的領先優勢巨大,未來就是中美的競爭的局麵了。

對不住了,又信口開河了一下。抱歉抱歉。
大豬頭- 發表評論於 2025-01-26 17:58:01
大型模型會不會收集用戶在使用模型是的數據,這個我存疑,因為如果不是公開的數據,AI公司悄悄地使用在模型訓練中,估計會有大麻煩的。如果是那樣,企業估計是不敢用的。
===
沒聽說過模型可以在本地運行? 還要啥例子,自己報上來我可以幫你來認定啥是信口開河

破棉襖 發表評論於 2025-01-26 16:57:04
ypb001 發表評論於 2025-01-26 14:22:36
原來AI的泡沫隻值600萬美元,卻忽悠投資者幾百上千億美元
===========================================
此言差也,DeepSeek這套RL訓練,蒸餾,濃縮的方法也可以被資源雄厚的大公司利用,把手頭的大量的效率比較低的模型通過RL訓練,蒸餾,濃縮的方法,搞成性能優異的新模型。換句話說,你600萬搞出來跟人家差不多的東西,人家砸600億,借用你的方法,能搞出來性能高一千倍的新模型。當然這是一個循環學習和競爭的過程。
破棉襖 發表評論於 2025-01-26 15:53:42
試用一下,感覺DeepSeek很不錯,
問了一下Grok:
DeepSeek是蒸餾,提取,濃縮其他現成的模型實現的嗎?

回答:
DeepSeek模型的開發確實涉及到蒸餾技術,但需要澄清的是,蒸餾並不是簡單地提取或濃縮其他人的模型。以下是對DeepSeek模型蒸餾過程的解釋:

1. 蒸餾技術:在機器學習中,模型蒸餾是一種從大型、複雜的“教師”模型中轉移知識到較小、更簡單的“學生”模型中的技術。DeepSeek使用這種方法,通過將來自更大、更複雜的DeepSeek-R1模型的知識轉移到基於Qwen和Llama等開源模型的較小模型中,來創建高效且性能優異的模型。
2. 創新和應用:DeepSeek開創性地應用了強化學習(RL)來直接訓練基礎模型,而不僅僅依賴於監督微調(SFT)。然後,通過蒸餾技術,利用DeepSeek-R1生成的80萬個樣本來微調這些較小的開源模型,顯著提升了這些小模型的推理能力。
3. 開源與創新:DeepSeek-R1及其蒸餾版本都是開源的,這意味著它們基於開源模型進行的改進和創新也是為了推動整個AI社區的發展,而不是簡單地“提取”他人的工作。

因此,DeepSeek模型的開發是通過結合創新的訓練方法和蒸餾技術來實現的,它不僅利用了其他模型的知識,還推進了這些模型在特定任務上的表現。然而,這個過程是基於對知識的轉移和優化,而不是直接的提取或複製其他人的工作成果。
殺豬小哥 發表評論於 2025-01-26 15:34:00
中國有大量閑置勞動力,參與了幕後大量的計算工作,光草紙就用了帝國大廈那麽高
罵人不好 發表評論於 2025-01-26 15:23:40
什麽叫做信口開河,您定義一下?別人說的我不評價,我說的那一句是信口開河的?這裏是人工智能的專家研討會嗎?有人規定學到多少,學到什麽程度才能發言,才不算是不信口開河嗎 ?
字母有大小寫之分 發表評論於 2025-01-26 15:08:42
又放一顆衛星,又一個水稻畝產三萬六千斤;天上有頭牛在飛,那是共產黨在地上吹
大豬頭- 發表評論於 2025-01-26 15:08:09
所以還是文學城群眾厲害,現在隨著科技發展學習成本是很低,但是剛學就敢於信口開河指點江山也隻有睿智的文學城群眾能做到。
罵人不好 發表評論於 2025-01-26 14:49:42
哈哈哈,這就很搞笑了。任何人都可以發表自己的觀點。現在的學習新知識的門檻是很低。隻要你願意學,幾乎沒有什麽不是零成本就能學的。沒有必要爹了娘的惡言相向。有不同的觀點你就好好說,注意點素質。
ypb001 發表評論於 2025-01-26 14:22:36
原來AI的泡沫隻值600萬美元,卻忽悠投資者幾百上千億美元
亞洲食肉動物 發表評論於 2025-01-26 14:18:00
等待黨委入駐,一切模型跟黨走
大豬頭- 發表評論於 2025-01-26 14:16:13
文學城群眾厲害的就是哪怕剛學了一點也不妨礙他們直接積極的以專家姿態批評中國,這種把咱爹當親爹的堅定的立場,值得我們新移民好好學習。
novtim2 發表評論於 2025-01-26 14:02:50
現在所有人的模型都有改進空間。DEEPSEEK對已有模型的改進引入多專家模式,現在反過來看確實有其道理,因為一個精通政治的和一個精通化學的在根本上有其區別,這種多專家模式使得在精細化化學知識的時候不會損害模型的政治經濟學能力。但是這顯然還不是語言模型的終點,語言模型還在進化,DEEPSEEK的貢獻顯然是非同小可的。說實話如何從語言模型中獲利任然是一個問題,一個能說會道的係統到底如何轉換成服務換成錢???但是自動駕駛這些是顯而易見的,你如果能做到,錢就在不遠處。人形機器人也是,你能做到,錢就在哪裏等你--
futufutu 發表評論於 2025-01-26 14:02:02
已經鬆手了?掐脖子就吹牛逼? 真正牛逼!
Earth_Rover 發表評論於 2025-01-26 10:53:33又自嗨了!一掐脖子就翻白眼,一鬆手就吹牛逼。
罵人不好 發表評論於 2025-01-26 13:51:49
我首先聲明我不是做AI的,隻是在油管和B站上看了一點點東西,有興趣學,但是還完全不入門。
大豬頭- 發表評論於 2025-01-26 13:38:06
跟據文學城專家的專業分析,好像隻有deepseek能拿咱爹家的開源模型回家練習,咱爹家公司不能拿deepseek的開源模型回去同等處理一樣。專家們對開源的理解的確站在了新的高度,是我從未達到的,不得不佩服。
supernova13 發表評論於 2025-01-26 13:37:00
關於DeepSeek,可以看這個視頻 youtu.be/OC2J-0vlhy8
alextelltale 發表評論於 2025-01-26 13:34:00
李開複老師還是保守了一點,半年前說中國AI落後美國半年,難道美國這半年AI沒進步?隻是老黃芯片賺翻了。
大豬頭- 發表評論於 2025-01-26 13:29:11
文學城論壇群眾的學習能力又一次讓我欽佩,這一下都成為AI專家指點江山了。
罵人不好 發表評論於 2025-01-26 13:05:17
現階段使用ASIC的確有點早了。算法更新太快。現在的主流應該還是GPU和FPGA。
long10 發表評論於 2025-01-26 13:03:12
剛才用這兩個平台 對我現在的一個程序問題做了測試,給出的答案相互很像,讓我驚訝的是,連錯誤地方的邏輯都一模一樣。所以我覺得deepseek 大概就是個好的模仿,至於怎麽做到的模仿,倒是人們可以關注的,而不是 什麽超越的問題。
ljcn 發表評論於 2025-01-26 12:57:13
"雖然可自由重複使用,但R1的開源開放程度仍受限,因為訓練數據尚未公開" ---> 就這,意思是,別人無法重複你的工作,那基本隻剩下炒作了。
wxcbug 發表評論於 2025-01-26 12:53:41
這也警示那些想用ASIC定製AI芯片的廠商,很可能花大價錢定製芯片後,一但模型發生變化,ASIC芯片就需要重新設計,在現階段算法尚未成熟的情況下用ASIC會麵臨很大風險。
罵人不好 發表評論於 2025-01-26 12:52:44
大型模型會不會收集用戶在使用模型是的數據,這個我存疑,因為如果不是公開的數據,AI公司悄悄地使用在模型訓練中,估計會有大麻煩的。如果是那樣,企業估計是不敢用的。
罵人不好 發表評論於 2025-01-26 12:46:37
中國強項在於工程項目落地,不在基礎研究。中國理工科人才儲備雄厚,所以估計也不打算超越,跟在後麵超作業就挺好了。對於追求短期變現的思路是非常合適的。

換句話說就是讓我先搞出來,可能不行。但是您先請,然後我來抄作業,搞出來個差不多的,甚至在個別方向上比你強一點的,那個我在行。如果我徹底掌握了,對不起,我就要走自己的路,讓別人無路可走,除非你又走出了別的路。這一套都是在國家補貼和壓榨勞動力的基礎上卷出來的。真的值的提倡嗎?
大頭魚001 發表評論於 2025-01-26 12:43:17
美國的大模型公司把模型公開或者是開源的給你用,是為了獲取更多的訓練數據。等他訓練出更高級的就不給你用了。然後再怎麽模仿? 現在走deepseek這種捷徑隻會讓中美之間的大模型開發距離越來越大,一旦形成降維打擊的優勢,連翻身的機會都沒有。
viBravo5 發表評論於 2025-01-26 12:35:26

DeepSeek類似文學城新聞取自各大新聞媒體,省去實地采訪新聞的費用,可以做到“白菜價”。

以後如果各大新聞媒體不讓文學城轉載,法律規範齊全了,那怎辦?
souledgeii 發表評論於 2025-01-26 12:32:15
將來區別是,用openai隻能拿到世界知識庫的一部分,畢竟壓縮過的,美國大公司掌握的原始數據要多很多。對於大多數普通老百姓用AI應該足夠了。推理部分跟數據關係不大,中國可能最大
沒事逛逛88 發表評論於 2025-01-26 12:31:57
大頭魚001 發表評論於 2025-01-26 10:57:00通過蒸餾來獲取的模型,想趕上應該不是很困難,但想超越幾乎不可能
----------------------------------------------------------------------------------
為啥要超越?中國人最擅長的就是你開發出正版,而我用極小的代價仿出山寨版,然後大家一起卷死。
wd01702 發表評論於 2025-01-26 12:28:48
拿open ai 的模型,然後在特定領域做改良。所以有和open ai 相當,甚至某些測試領域超越的測試結果。有人曾問deepseek她的模型是什麽,結果她直接回答是open AI。和open AI的回答一模一樣。這個紕漏估計已經改了,但是已經漏了餡。不過能利用open AI,甚至在其上改良似乎也是本事,CNBC采訪的專家確實表示震驚。
souledgeii 發表評論於 2025-01-26 12:28:01
總統都炒冥幣了,赦免殺人犯,還有啥事兒美國幹不出來?美國已經不是原來的美國,兩黨也不會糾錯,尤其涉及到莊家利益的那部分
蓬萊閣21 發表評論於 2025-01-26 12:26:15
可以問包含敏感詞的問題嗎?
時不時來看看 發表評論於 2025-01-26 12:25:18
政企分開是中共改革開放初期經曆的陣痛,現在美國毫不猶豫拿過來了,國會老爺不能過分幹涉私有企業的發展
ca_lowhand 發表評論於 2025-01-26 12:25:00
ds在模型性能上估計隻有GPT的八九十。但不重要,重點是低成本低算力。就像特斯拉成本四萬售價五萬,仿製車成本四千售價三萬,能有特斯拉百分之九十性能,哪個更有商業前途。
時不時來看看 發表評論於 2025-01-26 12:24:05
Nvidia好東西得多賣,不然利潤上不去,研發得落後,領先差距得縮小,本來那東西就是人+AI設計做出來的
FreeEnergy95 發表評論於 2025-01-26 12:22:34
“ChatGPT據報需要一萬台英偉達(Nvidia)的圖像處理器處理訓練數據,DeepSeek工程師稱他們僅用2000台圖像處理器就取得相同結果。”

如果這是真的,硬件隻有1/5,而總的成本隻有1/30,工程師的差異還是蠻大的

--------------------------------------------

成本除了 GPU 數量外,不應該還有時間麽
頁次:1/2 每頁50條記錄, 本頁顯示150, 共92  分頁:  [1] [2] [下一頁] [尾頁]