本地部署DeepSeek
當前位置:點晴教程→知識管理交流
→『 技術文檔交流 』
方案本地化方案非常簡單:Ollama + DeepSeek-R1 + Enchanted LLM 。 OllamaOllama 是一個用于在本地運行大型語言模型(LLMs)的工具,支持多種開源模型,如 Llama 2、Code Llama、Mistral 等。它簡化了模型下載、配置和運行的過程,用戶可以通過命令行輕松管理模型。使用起來頗有docker的感覺,pull、run、ps...。安裝也簡單,選擇對于系統(tǒng),下載安裝就妥了。 DeepSeek-R1在Ollama的網(wǎng)站上(https://ollama.com/)Models頁面當前排名第一的就是DeepSeek-R1,點進去選擇對應的版本,右邊會展示對應的ollama 命令,復制命令粘貼到命令行工具中執(zhí)行即可。如圖: Enchanted控制臺對話終究沒有UI方便,在Ollama README上列舉了大量UI工具,如Open WebUI、Enchanted、Hollama、Lollms-Webui.... 因為本地是MacOs,這里選擇的是Enchanted。Enchanted是MacOs下的一個App,也支持IOS和Vision Pro,在AppStore上下載安裝即可。Enchanted配置非常簡單,填寫本地服務地址(Ollama本地服務是: localhost:11434)選擇對應模型版本即可。至此本地化就完成了。最后附上紀念照: 轉(zhuǎn)自https://www.cnblogs.com/aser1989/p/18697164 該文章在 2025/2/5 9:36:50 編輯過 |
關鍵字查詢
相關文章
正在查詢... |