不要太大驚小怪,DeepSeek主要用的技術都是已知的,例如

Model Distillation 模型蒸餾: https://labelbox.com/guides/model-distillation/

Mixture of Experts (MoE) https://huggingface.co/blog/moe

Quantization: https://huggingface.co/docs/optimum/en/concept_guides/quantization 用FP8,INT8,甚至INT4,壓縮模型早已廣泛應用了(在Huggingface上的開源模式都是壓縮的)

DeepSeek 對開源人工智能長遠的貢獻,是證明了用這些已知的技術,可以降低運作費用,這條路可行,普及人工智能更加容易了。

AI的泡泡,因此會更短的時間裏,被吹的更大, 更家喻戶曉了。

 

請您先登陸,再發跟帖!