比如有時看見CHATGPT在胡說,就是他的數據源裏這個結果的匹配率最高,得靠人工加TAG來修正,他沒有自我思考和糾錯能力
所有跟帖:
• 人類早期住山洞裏。那又怎樣呢? -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:48:34
• 不用杠頭,這個方法是比以前先進了,但做不到高準確性, 而且糾錯成本高,所以很難做到大規模應用,在一些特定場合還不錯, -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 09:51:32
• 你不看好很正常。可以理解。 -uptrend- ♂ (0 bytes) () 11/13/2024 postreply 09:52:58
• 現在的技術靠砸錢多訓練解決不了這個問題,未來肯定會有好辦法出現,但這不是一般的技術創新,不是一兩年的事,花街等不了 -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 10:02:20
• 人類之所以有智慧,除了明白各個agent之間的關係,還有什麽嗎? 沒有的話,說明目前AGI的方向是可行的 -cnrhm2017- ♂ (0 bytes) () 11/13/2024 postreply 10:41:36
• 人類社會有一整套體係,如教育,法律,保險來確保人類執行過程中的穩定性,而AI沒有,比如AI失誤放了火,誰負責, 廠家嗎? -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 10:55:15
• 這個就比如問賣車的話,出事了誰負責?保險公司. 科學運用都是先發展,regulation再跟上 -cnrhm2017- ♂ (0 bytes) () 11/13/2024 postreply 11:12:06
• 特斯拉每次出事故都是一地雞毛,現在TSLA用輔助駕駛的做法把責任推到司機上,但全自動不可以,保險公司也不會做這個冤大頭 -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 11:45:24
• tesla FSD保險問題講6年了,最後估計是tesla自己搞保險 -cnrhm2017- ♂ (0 bytes) () 11/13/2024 postreply 12:46:14
• 當然你要是覺得這些事簡單,那也沒啥好說的, -testmobile- ♀ (0 bytes) () 11/13/2024 postreply 11:46:46