有手就行!DeepSeek 本地部署還能聯網搜索
最近 DeepSeek 大火,很多人都想用 DeepSeek,但是無奈經常提示服務器繁忙,那就試試將 DeepSeek 部署到自己電腦上吧!不僅能用 DeepSeek,還能聯網搜索、生成圖片!並且,Win 和 Mac 都可以使用!
PART ONE
部署 DeepSeek 到本地
推薦大家使用 Ollama 進行部署,非常簡單,有手就行
🏗️ 安裝 Ollama
去 Ollama 官網(https://ollama.com/)根據自己的系統選擇下載對應的安裝包安裝即可
🧱 下載 DeepSeek 模型
在 Ollama 官網中點 Model 選項,DeepSeek 在第一個,點擊進入模型詳情頁,根據自己的需求選擇對應的模型大小,例如 7b、32b。選擇好對應的模型尺寸後點擊右側的按鈕複製命令即可(如果不知道該如何選,請看文章底部的 QA 部分)
複製好命令後,Windows 用戶打開 Powershell、Mac 用戶打開終端,將剛剛複製的代碼粘貼進去,按回車即可自動下載模型,等待模型下載完成即可使用(Windows 系統會默認下載到 C 盤,如果想要修改請看文章底部的 QA 部分)
💬 跟 DeepSeek 對話
模型下載完成之後,即可正常進行對話,關閉 Powershell 或者終端則退出對話,下次如果還需要進行對話的話,再次打開 Powershell 或者終端,輸入命令 ollama run 模型名稱 即可啓動模型開始對話
# 運行模型
ollama run 模型名稱
# 例如:
ollama run deepseek-r1:32b
至此,DeepSeek 部署到本地已經完成可以使用啦。不過,這樣用起來是不是還覺得不夠方便?請看後面
PART TWO
本地部署 LLM 應用開發平臺
當我們通過 Ollama 將 LLM 部署到本地後,總會覺得有點麻煩,比如只能在 Powershell / 終端 中通過命令行的形式跟 AI 進行對話,比如無法使用 AI Agent、聯網搜索。本地部署後使用起來總覺得比在線工具差了點什麼,而 LLM 應用開發平臺就是彌補這些缺點的存在。讓 AI 在你的電腦裏 滿血復活
🏗️ 安裝 Docker
Docker 類似於虛擬機,可以將許多複雜的項目和軟件一鍵運行,非常方便,推薦新手和小白使用。前往 Docker 官網(https://www.docker.com/)根據自己的系統下載安裝 Docker 即可
🏗️ 安裝 OpenWebUI
OpenWebUI 輕量、簡單,對新手非常友好,因此推薦大家使用。Windows 用戶打開 Powershell、Mac 用戶打開終端,輸入以下代碼按回車就可以一鍵部署 OpenWebUI
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
輸入代碼後,耐心等待下載鏡像,鏡像下載完成後會自動安裝,安裝完成後打開瀏覽器訪問 http://localhost:3000 就可以訪問 OpenWebUI 了
PART THREE
配置聯網搜索、圖像生成
讓 AI 聯網搜索、圖像生成
🔗 將 Ollama 與 OpenWebUI 關聯
訪問 http://localhost:3000/ 進入 OpenWebUI 頁面,點擊左下角頭像,在浮層中選擇管理員面板
在管理員面板中點擊右上角的設置選項,切換到系統設置,然後選擇外部連接選項,將 Ollama API 連接點擊啓用,URL 中輸入 http://host.docker.internal:11434 ,其餘留空即可,記得一定要點保存!
Ollama API 填寫完成後,就可以在模型中看到已經部署到本地的模型了,此時點擊新對話,在左上角就可以選擇模型並進行切換了,此時就可以在 WebUI 中使用 DeepSeek 了,是不是比之前方便多了
小知識:在同一個局域網下,任意設備訪問 http://localhost:3000 都可以使用 DeepSeek 了
🛜 配置聯網搜索
進入管理員面板,點擊右上角的設置,找到 聯網搜索 選項,在右側點擊開啓,並將搜索引擎改成 duckduckgo 保存(爲什麼是 duckduckgo?因爲免費,且不需要註冊各種亂七八糟的東西)。設置完成後在對話中就出現了聯網搜索的選項,勾選即可在使用 AI 的時候進行聯網搜索
🎨 配置圖像生成
進入管理員面板,點擊右上角的設置,找到 圖像 選項,在右側點擊開啓,並根據實際情況選擇 WebUI 還是 ComfyUI,這裏以 ComfyUI 爲例。在 ComfyUI 地址這一欄中填寫 http://host.docker.internal:8188 (需要提前運行 ComfyUI),然後在下方 Workflow 中上傳一個 API Json 文件,上傳後需要檢查下方 Prompts、Model 這些參數後面 ID 是否跟 Workflow 裏保持一致,如果不一致需要手動修改。最後在最下方設置好默認模型、分辨率、步數即可,記得點保存!
配置完成後在對話中就出現了圖像生成的選項,點擊就可以在對話中生成圖片了(別忘了運行 ComfyUI)
QA PART
**大家常見的疑問也都整理在這了
**
Q:7b、32b 這麼多大小我該如何選擇?
A:7b、32b 中的 b 是 billion 的簡寫,指的是數據量大小。可以簡單的理解爲,模型數據量越大(b 的值越大),質量越高。但是相對的,模型體積也就越大,所需要硬件要求也就越高,這就導致運行速度會變慢。根據自己硬件條件、能接受的響應速度、響應質量自己選擇即可
Q:電腦硬件有什麼要求?
A:簡單可以使用公式 顯存 + 內存 > 模型大小 來作爲選擇的參考。這裏的模型大小指的是模型體積,也就是多少 G 多少 G,不是參數量(b)。例如顯存 12G,內存 16G,那麼模型大小小於 28G 的都可以使用(就比如 Ollama 中的 DeepSeek R1 32b 的模型大小是 20G,可以使用,但是 70b 模型大小是 43G 就不能使用)。但是需要注意,當模型大小超過顯存時,會調用 CPU 進行計算,速度會大大降低。因此,模型大小越大於顯存大小,運行速度越慢
Q:Windows 用戶如何將 Ollama 模型放在其他盤,非 C 盤?
A:右鍵 我的電腦 選擇 屬性,在屬性頁面中點擊 高級 ,然後找到 環境變量 入口,在 用戶變量中 新建一個名爲 OLLAMA_MODELS 的變量,值就是希望保存模型的目錄,例如 D:\OllamaModels ,點擊保存即可
CONCLUSION
**說在最後
**
通過以上教程就可以將 DeepSeek 部署到本地並且實現聯網搜索圖片生成功能,別怕麻煩,動手試一試。更多 AI 相關教程請見:
🌈煉丹修仙策略:「 https://yyn6skjv3j.feishu.cn/wiki/VHwWwXSkfiQhjak0brZcI5h0nUf 」
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/WjWqPNlT_Ny-LFhqOs7Crg