這是一個非常健康的轉變,大有成長前途。
現在AI開發從match轉向think了。
所有跟帖:
•
說說容易做做難,底層上還沒看到,幾個大廠好像都沒看出門道,
-SweetTomato-
♂
(0 bytes)
()
11/13/2024 postreply
09:31:53
•
各大都開始做了,而且重要的是,理論上已經被證明,AI思考是可行的。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:35:56
•
沒有, 隻是match的數據量大了, 加之用人工TAG去幹預match結果,用自然語言生成結果, 給人個假象好像在思考,
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:41:06
•
那種做法是舊聞。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:44:29
•
GPT的算法模型就是這樣,計算每個詞和文章裏所有詞的關係,十多年沒變過,以前因為沒用GPU無法統計大量的關係, 現在可以
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:46:59
•
正因為現在可以了,所以在開發的就是現在還不可以的。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:50:33
•
比如有時看見CHATGPT在胡說,就是他的數據源裏這個結果的匹配率最高,得靠人工加TAG來修正,他沒有自我思考和糾錯能力
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:43:21
•
人類早期住山洞裏。那又怎樣呢?
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:48:34
•
不用杠頭,這個方法是比以前先進了,但做不到高準確性, 而且糾錯成本高,所以很難做到大規模應用,在一些特定場合還不錯,
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
09:51:32
•
你不看好很正常。可以理解。
-uptrend-
♂
(0 bytes)
()
11/13/2024 postreply
09:52:58
•
現在的技術靠砸錢多訓練解決不了這個問題,未來肯定會有好辦法出現,但這不是一般的技術創新,不是一兩年的事,花街等不了
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
10:02:20
•
人類之所以有智慧,除了明白各個agent之間的關係,還有什麽嗎? 沒有的話,說明目前AGI的方向是可行的
-cnrhm2017-
♂
(0 bytes)
()
11/13/2024 postreply
10:41:36
•
人類社會有一整套體係,如教育,法律,保險來確保人類執行過程中的穩定性,而AI沒有,比如AI失誤放了火,誰負責, 廠家嗎?
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
10:55:15
•
這個就比如問賣車的話,出事了誰負責?保險公司. 科學運用都是先發展,regulation再跟上
-cnrhm2017-
♂
(0 bytes)
()
11/13/2024 postreply
11:12:06
•
特斯拉每次出事故都是一地雞毛,現在TSLA用輔助駕駛的做法把責任推到司機上,但全自動不可以,保險公司也不會做這個冤大頭
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
11:45:24
•
tesla FSD保險問題講6年了,最後估計是tesla自己搞保險
-cnrhm2017-
♂
(0 bytes)
()
11/13/2024 postreply
12:46:14
•
當然你要是覺得這些事簡單,那也沒啥好說的,
-testmobile-
♀
(0 bytes)
()
11/13/2024 postreply
11:46:46