比如有時看見CHATGPT在胡說,就是他的數據源裏這個結果的匹配率最高,得靠人工加TAG來修正,他沒有自我思考和糾錯能力

本文內容已被 [ testmobile ] 在 2024-11-13 09:44:30 編輯過。如有問題,請報告版主或論壇管理刪除.
回答: 現在AI開發從match轉向think了。uptrend2024-11-13 09:28:28

所有跟帖: 

人類早期住山洞裏。那又怎樣呢? -uptrend- 給 uptrend 發送悄悄話 uptrend 的博客首頁 (0 bytes) () 11/13/2024 postreply 09:48:34

不用杠頭,這個方法是比以前先進了,但做不到高準確性, 而且糾錯成本高,所以很難做到大規模應用,在一些特定場合還不錯, -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 11/13/2024 postreply 09:51:32

你不看好很正常。可以理解。 -uptrend- 給 uptrend 發送悄悄話 uptrend 的博客首頁 (0 bytes) () 11/13/2024 postreply 09:52:58

現在的技術靠砸錢多訓練解決不了這個問題,未來肯定會有好辦法出現,但這不是一般的技術創新,不是一兩年的事,花街等不了 -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 11/13/2024 postreply 10:02:20

人類之所以有智慧,除了明白各個agent之間的關係,還有什麽嗎? 沒有的話,說明目前AGI的方向是可行的 -cnrhm2017- 給 cnrhm2017 發送悄悄話 cnrhm2017 的博客首頁 (0 bytes) () 11/13/2024 postreply 10:41:36

人類社會有一整套體係,如教育,法律,保險來確保人類執行過程中的穩定性,而AI沒有,比如AI失誤放了火,誰負責, 廠家嗎? -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 11/13/2024 postreply 10:55:15

這個就比如問賣車的話,出事了誰負責?保險公司. 科學運用都是先發展,regulation再跟上 -cnrhm2017- 給 cnrhm2017 發送悄悄話 cnrhm2017 的博客首頁 (0 bytes) () 11/13/2024 postreply 11:12:06

特斯拉每次出事故都是一地雞毛,現在TSLA用輔助駕駛的做法把責任推到司機上,但全自動不可以,保險公司也不會做這個冤大頭 -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 11/13/2024 postreply 11:45:24

tesla FSD保險問題講6年了,最後估計是tesla自己搞保險 -cnrhm2017- 給 cnrhm2017 發送悄悄話 cnrhm2017 的博客首頁 (0 bytes) () 11/13/2024 postreply 12:46:14

當然你要是覺得這些事簡單,那也沒啥好說的, -testmobile- 給 testmobile 發送悄悄話 (0 bytes) () 11/13/2024 postreply 11:46:46

請您先登陸,再發跟帖!