OpenAI曾經以ChatGPT時刻被認為不可超越的領頭羊,看現在幾家LLM模型(OpenAI, xAI, Google, Anthropic)的性能已經是齊頭並進的情況。
即使純視覺可以實現L5,也不一定出現一家獨大的情況,可以參照LLM,
所有跟帖:
•
現在的問題是,純視覺L5就是還不確定。要真確定了,Waymo這個國內最大競爭對手就徹底沒戲了
-dancingpig-
♀
(0 bytes)
()
08/09/2025 postreply
21:28:28
•
純視覺模型
-study169-
♂
(830 bytes)
()
08/09/2025 postreply
21:55:07
•
底層邏輯是不一樣的,概率模型 VS 確定性模型, 要改的話軟件都得大改,硬件也得更新,還都得重新訓練NN
-dancingpig-
♀
(60 bytes)
()
08/09/2025 postreply
22:43:22
•
另外,你的類比裏,LLM用到的訓練數據和自動駕駛用到的,做為護城河寬度不同
-dancingpig-
♀
(0 bytes)
()
08/09/2025 postreply
21:34:02
•
自動駕駛的數據,
-study169-
♂
(127 bytes)
()
08/09/2025 postreply
21:43:22
•
Mobile Eye走的是Waymo那條路,訓練數據不好用於對基於純視覺的訓練
-dancingpig-
♀
(0 bytes)
()
08/09/2025 postreply
22:46:56
•
LLM開源了,FSD並沒有。
-大禹知比山-
♀
(0 bytes)
()
08/09/2025 postreply
21:56:43
•
開源的LLM模型什麽性能?Meta為什麽1~2億美元挖人?
-study169-
♂
(196 bytes)
()
08/09/2025 postreply
22:02:12
•
Meta的llama 3就是開源的啊,但是llama 4搞砸了,所以現在開始到處挖人,並且小紮透露不打算開源了
-大禹知比山-
♀
(0 bytes)
()
08/09/2025 postreply
22:30:51