inference需要的算力遠不如訓練多,所以需求也不會大,訓練模型是最花時間和錢的
所有跟帖:
• inference計算量主要看應用規模。好的模型訓練完成後,可能被調用上萬次、上億次 -study169- ♂ (0 bytes) () 01/01/2025 postreply 13:13:38
• 這個是前端,需求多時自動分配前端服務器就能解決問題,CLOUD的auto scaling方案很完善了,不需要做到芯片裏 -testmobile- ♀ (0 bytes) () 01/01/2025 postreply 13:23:53