手把手教你本地部署 DeepSeek – wiki大全

手把手教你本地部署 DeepSeek

DeepSeek 是一款功能强大的开源大型语言模型 (LLM),它支持本地部署,让用户能够在自己的机器上运行 AI 模型。本地部署 DeepSeek 不仅能够更好地保护数据隐私,还能提供更快的响应速度,并且在某些情况下可以更具成本效益。本教程将详细指导你如何使用 Ollama 在本地部署 DeepSeek 模型。

1. 硬件要求和注意事项

在开始部署之前,请确保你的系统满足必要的硬件要求。DeepSeek 模型有不同的参数量版本(例如 1.5B、7B、32B、67B),模型越大,所需的计算资源越多。对于消费级硬件,建议从较小的模型(如 DeepSeek-R1 1.5B 或 7B)开始,因为它们对内存和处理器的要求较低。

  • CPU: 强大的多核处理器(推荐 12 核以上)。
  • GPU: 带有 CUDA 支持的 NVIDIA GPU 可提供加速性能。对于大型模型,推荐 24GB VRAM (如 NVIDIA RTX 3090) 或更高 (如 NVIDIA A100 或 RTX 4090,48GB VRAM)。
  • RAM: 最低 16 GB,对于大型模型最好是 32 GB 或更多,甚至 128GB+。
  • 存储: NVMe 存储以实现更快的读写操作,至少 512GB SSD。
  • 操作系统: Ubuntu 或基于 Ubuntu 的发行版通常兼容性更好,但 Ollama 支持 macOS、Windows 和 Linux。

2. 安装 Ollama

Ollama 是一个轻量级的运行时,它极大地简化了在本地机器上部署和运行大型语言模型的过程。

  1. 访问 Ollama 官网: 前往 ollama.com/download
  2. 下载并安装: 根据你的操作系统(macOS, Windows, 或 Linux)下载相应的安装程序,并按照说明进行安装。
    • Linux 用户 可以通过运行以下命令安装:
      bash
      curl -fsSL https://ollama.com/install.sh | sh
  3. 验证安装: 安装完成后,在命令行或终端中输入 ollama --version 来验证 Ollama 是否成功安装并运行。

3. 下载 DeepSeek 模型

Ollama 提供了多种 DeepSeek 模型版本,你可以根据自己的硬件能力和需求选择合适的模型。

  1. 拉取 DeepSeek 模型: 在命令行中执行 ollama pull 命令来下载 DeepSeek 模型。
    • 推荐的小型模型 (适合基本配置):
      bash
      ollama pull deepseek-r1:1.5b

      这个模型大小约为 1.1GB,适合 8GB RAM 或更少的计算机。
    • 中等大小模型 (性能更好):
      bash
      ollama pull deepseek-r1:7b

      这个模型大小约为 4.7GB,适合 16GB RAM 的计算机。
    • 你也可以访问 Ollama 官网的模型库(ollama.com/library),查找其他 DeepSeek 模型版本和更多详细信息。

4. 在本地运行 DeepSeek

模型下载完成后,你就可以通过命令行与 DeepSeek 模型进行交互了。

  1. 启动 DeepSeek 模型:
    在命令行中运行以下命令来启动你下载的 DeepSeek 模型:
    bash
    ollama run deepseek-r1:1.5b

    (如果你下载的是 deepseek-r1:7b 模型,则将命令替换为 ollama run deepseek-r1:7b
  2. 开始对话: 模型启动后,你就可以在命令行中输入你的问题或指令,DeepSeek 会给出响应。
    • 例如,你可以输入 “你好,你今天过得怎么样?” 或 “用 Python 编程语言写一个冒泡排序的例子。”

5. (可选) 安装 Open WebUI 以获得图形界面

虽然可以通过命令行与 DeepSeek 交互,但使用图形用户界面 (GUI) 可以提供更友好、更直观的体验。Open WebUI (以前称为 Ollama Web UI) 是一个流行的选择,它提供了一个类似 ChatGPT 的界面。

  1. 安装 Docker: Open WebUI 通常通过 Docker 部署。如果你的系统上没有安装 Docker,请先按照 Docker 官方指南进行安装。
  2. 部署 Open WebUI: 运行以下 Docker 命令来部署 Open WebUI。这个命令会将容器的 8080 端口映射到主机的 3000 端口,并确保容器可以与运行在主机上的 Ollama 服务通信:
    bash
    docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
  3. 访问 WebUI: 部署成功后,打开你的网络浏览器,访问 http://localhost:3000
  4. 创建账户并选择模型: 首次使用时,你需要创建一个管理员账户。然后,从界面右上角的下拉菜单中选择你已经下载的 DeepSeek 模型,即可开始进行聊天和交互。

通过以上步骤,你就可以在本地成功部署 DeepSeek 模型,并开始进行 AI 驱动的实验和应用开发了。享受在本地运行强大 LLM 的乐趣吧!

滚动至顶部