這種並不需要什麽大模型,嵌入式係統識別還搞那麽大內存用那麽多CPU那麽高功率在大模型上完全是浪費。
所有跟帖:
•
調用服務器上的大模型不行嗎?非要把模型放到端側?
-伯克希爾哈薩維-
♂
(0 bytes)
()
12/13/2024 postreply
12:16:31
•
定義是“在網絡,定位係統被摧毀的情況下自主完成任務”
-bulubulu-
♂
(108 bytes)
()
12/13/2024 postreply
12:21:01
•
調用服務器的AI就不是 EdgeAI 了,這是不同的概念
-diablo18-
♀
(0 bytes)
()
12/13/2024 postreply
12:25:13
•
離數據端近更安全 減少延遲和網絡依賴
-小昭mm-
♀
(0 bytes)
()
12/13/2024 postreply
19:55:52
•
你理解錯了,EdgeAI training用普通的計算機或服務器,需要大量GPU,模型生成後寫入嵌入係統運行,嵌入係統
-diablo18-
♀
(85 bytes)
()
12/13/2024 postreply
12:18:29
•
模型放在那了,從模型計算求解一樣是個resource intensive的過程,如果是大模型的話
-bulubulu-
♂
(384 bytes)
()
12/13/2024 postreply
12:25:08
•
模型也是很大的,你去huggingface隨便下一個MODEL, 都是幾個G
-testmobile-
♀
(0 bytes)
()
12/13/2024 postreply
12:28:59
•
各種優化方法 模型會越來越小
-小昭mm-
♀
(0 bytes)
()
12/13/2024 postreply
20:01:15