本地安裝Deepseek太簡單了,用不了5分鍾。人人都可以安裝

為了深入了解DS,對各大AI公司的可能的影響,決定是否需要做投資上的調節。這幾天在本地計算機上(蘋果MacBook Pro 和Windows11),安裝親測了Deepseek r1:70b 開源大模型。發現安裝起來,極其簡單,就兩步驟,不到5分鍾搞定。

1)下載安裝開源的 ollama:  https://ollama.com/

2) 在ollama裏輸入:ollama run deepseek-r1:70b

ollama 就會自動下載被指定的大模型,並自動進入DS, 可以開始提問題了

Ollama上還有許多其它開源大模型,例如META的llama3.3 等等。也是一條指令: "ollama run llama3.3",就可以安裝+運行, 太方便了。

DS  使人人都可以在自己本地的計算機上,運行相當不錯的AI大模型。將來還會有更好的模型,AI大大普及化。這對AI應用公司,像AAPL,AMZN,CRM,META等的發展前景,是一個巨大的利好。

 

 

 

所有跟帖: 

本地安裝能用API嗎? -Wakeland- 給 Wakeland 發送悄悄話 (0 bytes) () 01/28/2025 postreply 15:57:00

看誰調用API了,就編程工具而言,cursor調用不了API, Roo-cline行。 -亞特蘭蒂斯- 給 亞特蘭蒂斯 發送悄悄話 亞特蘭蒂斯 的博客首頁 (0 bytes) () 01/28/2025 postreply 16:41:57

安裝一個webUI,用起來更爽,https://chromewebstore.google.com/detail/pag -亞特蘭蒂斯- 給 亞特蘭蒂斯 發送悄悄話 亞特蘭蒂斯 的博客首頁 (0 bytes) () 01/28/2025 postreply 16:00:54

你貼的鏈接被截斷了。是這個吧? -gyarados- 給 gyarados 發送悄悄話 (107 bytes) () 01/28/2025 postreply 20:04:19

你覺得個人數據安全嗎?我用他們的網站就夠了。 -parentb- 給 parentb 發送悄悄話 parentb 的博客首頁 (0 bytes) () 01/28/2025 postreply 16:11:45

我會盡量不用網上的大模型,不止是DS,也包括OpenAI等等,因為它們會收集你的問題, -未知- 給 未知 發送悄悄話 未知 的博客首頁 (242 bytes) () 01/28/2025 postreply 16:32:16

本地安裝不是也有同樣問題!?至少網站無法收集本地的文件。 -parentb- 給 parentb 發送悄悄話 parentb 的博客首頁 (0 bytes) () 01/28/2025 postreply 16:38:58

怎麽可能?本地安裝根本不聯網 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (100 bytes) () 01/28/2025 postreply 16:49:05

本地安裝應該是很安全的。 實際上runtime是Ollama -CatcherInTheRye- 給 CatcherInTheRye 發送悄悄話 (0 bytes) () 01/28/2025 postreply 16:34:37

本地安裝Ollama我也會有這個安全性的顧慮。 -parentb- 給 parentb 發送悄悄話 parentb 的博客首頁 (0 bytes) () 01/28/2025 postreply 16:40:22

ollama 是開源的,用戶很多,安全上應該沒有問題。 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (0 bytes) () 01/29/2025 postreply 23:34:41

個人使用,還是上網方便。本地模型提供了定製化的可能,永遠免費,如果夠用的話。 -亞特蘭蒂斯- 給 亞特蘭蒂斯 發送悄悄話 亞特蘭蒂斯 的博客首頁 (0 bytes) () 01/28/2025 postreply 16:40:42

70B太大了,我的4080的機器32b的跑起來都嫌慢,14b的才差不多 -gyarados- 給 gyarados 發送悄悄話 (0 bytes) () 01/28/2025 postreply 19:54:45

隻就是蘋果計算機的優勢了,Unified Memory?構建CPU&GPU共享RAM,可以跑大模型 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (88 bytes) () 01/28/2025 postreply 20:35:43

你的ram多大?我8G的ram,低配版M2,隻能跑7b版。加個UI每次問問題它思考我都不能幹別的事。 -largesammy- 給 largesammy 發送悄悄話 (0 bytes) () 01/29/2025 postreply 18:39:44

M2跑大模型有的吃力,試試1.5b版 -未知- 給 未知 發送悄悄話 未知 的博客首頁 (81 bytes) () 01/29/2025 postreply 23:46:03

請問Mac 和 Windows 電腦是什麽配置,內存 GPU等等? -paterman- 給 paterman 發送悄悄話 (0 bytes) () 01/29/2025 postreply 12:33:01

本地安裝的能做網絡搜索及Retrieval Augmented Generation嗎? -大觀園的賈探春- 給 大觀園的賈探春 發送悄悄話 大觀園的賈探春 的博客首頁 (0 bytes) () 01/29/2025 postreply 12:51:37

可以,但需要再加安開源的AnythingLLM -未知- 給 未知 發送悄悄話 未知 的博客首頁 (284 bytes) () 01/29/2025 postreply 23:33:18

請您先登陸,再發跟帖!