勤勞智慧的中華民族,繼續努力,養肥自己!
到身強脖子粗的時候,看看誰卡誰的脖子?!
NVDA down 5% now!
勤勞智慧的中華民族,繼續努力,養肥自己!
到身強脖子粗的時候,看看誰卡誰的脖子?!
NVDA down 5% now!
• 不要太大驚小怪,DeepSeek主要用的技術都是已知的,例如 -未知- ♂ (1033 bytes) () 01/26/2025 postreply 21:31:01
• Model Distillation應該是把原始數據做簡化吧,這樣精確度會降低,但是普通問題應該OK了 -cnrhm2017- ♂ (0 bytes) () 01/26/2025 postreply 21:45:04
• 全世界能看懂你貼的這些文章的人估計沒多少。大家都是外行,戈培爾那句話怎麽說的來著? -Wei_PDX- ♂ (158 bytes) () 01/26/2025 postreply 22:53:58
• 要這樣說的話,全世界的LLM用的已知技術 -maniac63- ♂ (259 bytes) () 01/26/2025 postreply 23:45:27
• 已知的技術也是用在芯片 dis對芯片的使用方式不一樣 沒有release code 這是老美技術上不行的地方 -littlegreen- ♀ (0 bytes) () 01/27/2025 postreply 07:16:23
WENXUECITY.COM does not represent or guarantee the truthfulness, accuracy, or reliability of any of communications posted by other users.
Copyright ©1998-2025 wenxuecity.com All rights reserved. Privacy Statement & Terms of Use & User Privacy Protection Policy