用本地文件調教 DeepSeek

在當今數字化的時代,信息和知識如同浩瀚的海洋,而我們每個人都要在其中尋找屬於自己的寶藏。

想象一下,作爲一名醫生,你手中握有海量的科研資料,它們如同一座座知識的孤島,等待着被探索和整合。如果能夠擁有一位專屬的 “知識機器人”,它不僅能夠學習並吸收你所有的資料,還能在你需要時,迅速爲你提供精準的答案,這將是多麼令人嚮往的事情啊!

你無需再耗費大量時間在繁瑣的資料檢索中,只需簡單地向它提問,答案便如自來水般湧現。這,便是本地部署與知識庫結合的神奇之處。它不僅僅是一個技術的應用,更是一種對個人智慧的賦能。

而這一切,正是 DeepSeek 等大模型所賦予我們的獨特價值。它陽光普照,讓知識的邊界得以無限拓展,讓智慧的光芒得以更加令人唾手可得。

牛刀小試

首先,我們編寫一個簡單的 markdown 文件,內容如下:

三角形分類

- 黃金三角形就是三個角的大小比例爲 1:2:3 的三角形。
- 白銀三角形就是三個角的大小比例爲 2:3:4 的三角形。
- 青銅三角形就是三個角的大小比例爲 1:1:4 的三角形。
- 爛鐵三角形就是三個角的大小的比例爲 1:3:8 的三角形。

取個名字,比如 知識荒漠.md,當然把它導出爲 pdf 格式也是可以的。當然,一般來說你會有很多這類文件。然後,把它們導入到本地知識庫,後面會講具體如何操作。

這裏提一下,黃金三角形和白銀三角形本身是有這樣的定義,但我們這裏隨便下點定義,爲了看看 DeepSeek 作何反應。而後面兩個是沒有的,完全是我們杜撰的,可以理解爲要餵給大模型的新知識。

好了,開始調戲本地的 DeepSeek。

比如問它:請解釋下青銅三角形

由於實際中並沒有這個定義,所以它只能從我們本地知識庫中獲得這個知識,加上它自己的推理,構建了具體的概念並總結了一些性質,雖然它有些謹慎。

再問它:請解釋下黃金三角形

由於實際中有這個定義,但是它又看到了本地知識庫中的這個概念,顯然它們不一致,所以 DeepSeek 有些糾結,但會結合它自己的推理來決定最終怎麼解釋。

可見 DeepSeek 還是很聰慧的,不會輕易被外部知識誤導。

另外,如果你嫌 AI 大模型翻譯得不到位,是不是可以給它喂一些本地知識調教它呢!

大致原理

DeepSeek 讀取本地知識庫主要是通過檢索增強生成(Retrieval-Augmented Generation,RAG)技術實現的。以下是具體實現過程:

  1. 向量嵌入模型:需要一個嵌入模型(如 nomic-embed-textBAAI/bge-m3)將本地知識庫中的文本內容轉換爲向量形式。這些向量會被存儲到向量數據庫(如 LanceDB)中。

  2. 知識庫的創建與配置:在本地部署 DeepSeek 的基礎上,通過相關工具(如 Cherry Studio)配置嵌入模型和向量數據庫。創建知識庫時,選擇已配置的嵌入模型,上傳本地文件進行向量化處理。

  3. RAG 技術:當用戶提問時,RAG 技術會利用向量數據庫中的向量數據,通過檢索找到與問題最相關的知識庫內容。DeepSeek 會結合檢索到的知識庫內容生成回答。

  4. 模型與工具:DeepSeek R1 等模型通過 API 配置到各種工具中(如 Cherry Studio),以實現對本地知識庫的讀取和處理。通過上述技術,DeepSeek 能夠高效地讀取和利用本地知識庫,爲用戶提供精準的回答。

可能你會想這與直接以附件形式上傳給大模型有什麼區別?這個留給大家自己琢磨吧。好了,原理大致瞭解了,讓我們動手吧。

本地部署

一、安裝 Ollama

  1. 訪問 Ollama 官網:前往 Ollama 官網,點擊 Download 按鈕。

  1. 下載安裝包:根據你的操作系統選擇對應的安裝包。下載完成後,直接雙擊安裝文件並按照提示完成安裝。

  2. 驗證安裝:安裝完成後,在終端輸入以下命令,檢查 Ollama 版本:

    ollama --version

    如果輸出版本號(例如 ollama version is 0.2.8),則說明安裝成功。

二、下載並部署 DeepSeek 模型

  1. 選擇模型版本
  1. 下載模型:打開終端,輸入以下命令下載並運行 DeepSeek 模型。例如,下載 8B 版本的命令爲:

    ollama run deepseek-r1:8b

    如果需要下載其他版本,可以參考以下命令:

    ollama run deepseek-r1:7b  # 7B 版本
    ollama run deepseek-r1:14b # 14B 版本
    ollama run deepseek-r1:32b # 32B 版本
  2. 啓動 Ollama 服務:在終端運行以下命令啓動 Ollama 服務:

    ollama serve

    服務啓動後,可以通過訪問 http://localhost:11434 來與模型進行交互。

三、安裝並配置 Cherry Studio

  1. 下載 Cherry Studio
  1. 配置模型服務
  1. 添加 DeepSeek 模型

本地知識庫

一、搭建本地知識庫

  1. 下載嵌入模型:我們下載 BGE-M3,它是由 BAAI(北京智源人工智能研究院)發佈的多語言長文本向量檢索模型。BGE-M3 支持超過 100 種語言,訓練數據覆蓋了 170 多種語言。

通過如下命令下載這個嵌入模型。

ollama pull bge-m3
  1. 添加嵌入模型
  1. 添加本地知識庫

二、使用知識庫

  1. 選擇知識庫
  1. 聊天、提問

通過上述步驟,你可以在本地成功部署 DeepSeek 模型,構建了本地知識庫,並通過 Cherry Studio 的可視化界面進行交互。Cherry Studio 提供了豐富的功能,包括對話知識庫、聯網搜索、多模型接入等,非常適合新手快速上手。

最後,如果還想要 DeepSeek 結合搜索的話,可以使用瀏覽器插件 Page Assist。

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/kzwOYEMtzzBZH7jD3kNRlA