semi是強周期,如果不是全力炒作AI,早退下去了。。。
所有跟帖:
• 大語言模型下就是match,隻不過是極端高速的巨量match運作。。。 -SweetTomato- ♂ (0 bytes) () 11/13/2024 postreply 09:24:04
• 現在AI開發從match轉向think了。 -uptrend- ♂ (66 bytes) () 11/13/2024 postreply 09:28:28
• 說說容易做做難,底層上還沒看到,幾個大廠好像都沒看出門道, -SweetTomato- ♂ (0 bytes) () 11/13/2024 postreply 09:31:53
• 各大都開始做了,而且重要的是,理論上已經被證明,AI思考是可行的。 -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:35:56
• 沒有, 隻是match的數據量大了, 加之用人工TAG去幹預match結果,用自然語言生成結果, 給人個假象好像在思考, -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 09:41:06
• 那種做法是舊聞。 -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:44:29
• GPT的算法模型就是這樣,計算每個詞和文章裏所有詞的關係,十多年沒變過,以前因為沒用GPU無法統計大量的關係, 現在可以 -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 09:46:59
• 正因為現在可以了,所以在開發的就是現在還不可以的。 -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:50:33
• 比如有時看見CHATGPT在胡說,就是他的數據源裏這個結果的匹配率最高,得靠人工加TAG來修正,他沒有自我思考和糾錯能力 -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 09:43:21
• 人類早期住山洞裏。那又怎樣呢? -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:48:34
• 不用杠頭,這個方法是比以前先進了,但做不到高準確性, 而且糾錯成本高,所以很難做到大規模應用,在一些特定場合還不錯, -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 09:51:32
• 你不看好很正常。可以理解。 -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:52:58
• 現在的技術靠砸錢多訓練解決不了這個問題,未來肯定會有好辦法出現,但這不是一般的技術創新,不是一兩年的事,花街等不了 -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 10:02:20
• 人類之所以有智慧,除了明白各個agent之間的關係,還有什麽嗎? 沒有的話,說明目前AGI的方向是可行的 -cnrhm2017- ♂ (0 bytes) () 11/13/2024 postreply 10:41:36
• 人類社會有一整套體係,如教育,法律,保險來確保人類執行過程中的穩定性,而AI沒有,比如AI失誤放了火,誰負責, 廠家嗎? -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 10:55:15
• 這個就比如問賣車的話,出事了誰負責?保險公司. 科學運用都是先發展,regulation再跟上 -cnrhm2017- ♂ (0 bytes) () 11/13/2024 postreply 11:12:06
• 特斯拉每次出事故都是一地雞毛,現在TSLA用輔助駕駛的做法把責任推到司機上,但全自動不可以,保險公司也不會做這個冤大頭 -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 11:45:24
• tesla FSD保險問題講6年了,最後估計是tesla自己搞保險 -cnrhm2017- ♂ (0 bytes) () 11/13/2024 postreply 12:46:14
• 當然你要是覺得這些事簡單,那也沒啥好說的, -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 11:46:46