inference需要的算力遠不如訓練多,所以需求也不會大,訓練模型是最花時間和錢的
所有跟帖:
•
inference計算量主要看應用規模。好的模型訓練完成後,可能被調用上萬次、上億次
-study169-
♂
(0 bytes)
()
01/01/2025 postreply
13:13:38
•
這個是前端,需求多時自動分配前端服務器就能解決問題,CLOUD的auto scaling方案很完善了,不需要做到芯片裏
-testmobile-
♀
(0 bytes)
()
01/01/2025 postreply
13:23:53