Model Distillation 模型蒸餾: https://labelbox.com/guides/model-distillation/
Mixture of Experts (MoE) https://huggingface.co/blog/moe
Quantization: https://huggingface.co/docs/optimum/en/concept_guides/quantization 用FP8,INT8,甚至INT4,壓縮模型早已廣泛應用了(在Huggingface上的開源模式都是壓縮的)
DeepSeek 對開源人工智能長遠的貢獻,是證明了用這些已知的技術,可以降低運作費用,這條路可行,普及人工智能更加容易了。
AI的泡泡,因此會更短的時間裏,被吹的更大, 更家喻戶曉了。