前端和後端是兩種架構,後端的複雜邏輯很難放到GPU裏,GPU是處理簡單的並發,microservices是後端的大方向,

本文內容已被 [ testmobile ] 在 2024-02-21 08:47:49 編輯過。如有問題,請報告版主或論壇管理刪除.

chatgpt的後端有3000個用kubernetes  搭建的microservices server,每個server有一到4個GPU, 大家都注意到GPU,但其實 GPU加microservices才是openai的核心

 

手機和模型訓練就是兩個世界,和前端工程師和後端工程師的知識差別一樣大

所有跟帖: 

請您先登陸,再發跟帖!