四时宝库

程序员的知识宝库

DeepSeek 快速部署指南(deepexploration安装教程)

如果你在使用 PC 端 DeepSeek 时觉得卡顿,或是被 “服务器繁忙,请稍后再试” 的提示困扰,那么本地化部署 DeepSeek 或许是个绝佳的解决方案。通过本地化部署,不仅能解决卡顿问题,还能在数据隐私、成本控制等方面带来诸多优势。下面就为你详细介绍如何在 PC 端快速部署 DeepSeek。

一、PC 端部署步骤

(一)Windows 系统

  1. 准备工作:确保你的电脑满足以下配置要求:
    • 操作系统:Windows 10 或更高版本。
    • 硬件
      • 入门级配置(适用于简单文本处理和轻量级使用场景):四核处理器(如 Intel Core i5-7500),4GB 显存的英伟达 GPU(如 GTX 1050 Ti),8GB 内存,50GB 可用空间的 SSD。此配置下,能基本运行 DeepSeek,但处理复杂任务时可能会稍显吃力。
      • 中级配置(适用于一般办公和中度 AI 应用):六核及以上处理器(如 Intel Core i7-9700K),8GB 显存的英伟达 GPU(如 RTX 2060),16GB 内存,100GB 可用空间的 SSD。该配置能较为流畅地运行 DeepSeek,处理常见的 AI 任务。
      • 高级配置(适用于专业 AI 开发和复杂计算任务):八核及以上处理器(如 Intel Core i9-12900K 或 AMD Ryzen 9 5950X),16GB 及以上显存的英伟达 GPU(如 RTX 3080 或更高),32GB 及以上内存,500GB 及以上可用空间的 SSD。此配置可应对大规模数据处理和复杂模型训练,让 DeepSeek 性能得到充分发挥。
    • 软件依赖
      • Python:建议安装 Python 3.8 及以上版本,可从Python 官网下载对应 Windows 版本安装包,安装过程中记得勾选 “Add Python to PATH”,方便后续命令行调用。
      • CUDA 工具包:根据你所使用的英伟达 GPU 型号,从nVIDIA 官网下载匹配版本的 CUDA 工具包。例如,RTX 30 系列 GPU 推荐使用 CUDA 11.0 及以上版本。安装时注意选择自定义安装,可根据需求选择安装组件。
      • 深度学习库:使用 pip 命令安装 TensorFlow 或 PyTorch,例如安装 TensorFlow 可在命令提示符中输入 “pip install tensorflow”(安装指定 GPU 版本的 TensorFlow 可输入 “pip install tensorflow-gpu”);安装 PyTorch 则需根据官网提示,选择对应 CUDA 版本的安装命令,如 “pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117” (此处假设 CUDA 版本为 11.7)。
  1. 下载 Ollama:Ollama 可以简化 DeepSeek 的安装过程,无需云订阅。前往Ollama 官方网站下载 Windows 安装程序,下载完成后双击安装文件,按照屏幕上的提示完成安装。安装前确保电脑至少有 4GB 的可用存储空间。
  1. 检查安装:按快捷键 win + R,在弹出的运行框中输入 “cmd”,点击确定打开命令提示符。在命令提示符中输入 “ollama -v”(注意空格),然后回车,如果显示 ollama 版本号,说明 ollama 安装成功。
  1. 下载 DeepSeek 模型:打开浏览器,访问ollama 里的 deepseek - R1 模型页面 ,根据自己电脑的配置,下拉选择合适的参数规模:
    • 对于入门级配置:建议选择 7B 或 13B 规模的模型,命令为 “ollama run deepseek-r1:7B” 或 “ollama run deepseek-r1:13B” 。这两个模型相对较小,对硬件资源要求较低,能在入门级配置下较为流畅地运行。
    • 中级配置:可尝试 33B 规模的模型,命令为 “ollama run deepseek-r1:33B” 。该模型在处理复杂任务时表现优于小模型,且中级配置电脑能较好地支撑其运行。
    • 高级配置:可选择 70B 规模的模型,命令为 “ollama run deepseek-r1:70B” 。此模型具有强大的处理能力,适合处理复杂的 AI 任务,但对硬件性能要求极高,只有高级配置电脑才能充分发挥其优势。

复制对应的命令后,回到命令提示符窗口,将命令粘贴到光标后,按回车开始下载模型。下载过程中,如果发现下载速度开始变慢,按 Ctrl+C 停止下载,然后重新输入命令下载即可。耐心等待下载完成,下载时间取决于网络速度和模型大小,7B 模型约 3GB,13B 模型约 6GB,33B 模型约 16GB,70B 模型约 42GB。

  1. 使用可视化界面(可选):虽然命令行窗口可以直接与 DeepSeek 交互,但操作和复制内容不太方便。你可以打开chatboxai.app ,先将语言改为简体中文。按下快捷键 win + X,依次点击 “系统”-“高级系统设置”-“环境变量”,在环境变量界面单击 “新建” 按钮,新建第一个用户变量:OLLAMA_HOST,变量值设置为:0.0.0.0 ,单击确定;再新建第二个用户变量:OLLAMA_ORIGINS,变量值设置为:OLLAMA_ORIGINS ,单击确定。关闭正在运行的 ollama 程序和 cmd 命令界面,点击开始菜单,找到刚刚安装好的 ollama 并运行。最后在 chatboxai 网页上进行设置,设置完成后点击确定,就可以在这个可视化界面与 DeepSeek 进行对话了。

(二)Mac 系统

  1. 准备工作:系统需为 macOS 10.15 或更高版本,硬件配置与 Windows 类似,需准备好 Python、CUDA 工具包以及深度学习库:
    • Python:可通过 Homebrew 安装,在终端输入 “brew install python” 。
    • CUDA 工具包:对于 Mac 电脑,若使用的是支持 CUDA 的英伟达 GPU,可从nVIDIA 官网下载对应版本的 CUDA 工具包。不过,Mac 上支持 CUDA 的 GPU 型号有限,部分 Mac 电脑可能无法安装 CUDA 工具包,此时可考虑使用 CPU 进行计算,但性能会有所下降。
    • 深度学习库:安装方式与 Windows 类似,使用 pip 命令安装 TensorFlow 或 PyTorch。
  1. 下载 Ollama
    • 方式一:前往 Ollama 官网下载安装程序。
    • 方式二:使用 Homebrew 安装,在终端输入命令 “brew install ollama” 。
  1. 拉取 DeepSeek 模型:打开终端,根据不同配置输入对应的命令:
    • 入门级配置(如 MacBook Air M1 芯片):推荐使用 “ollama run deepseek-r1:7B” 。M1 芯片的 MacBook Air 性能相对较弱,7B 模型能在保证一定使用体验的同时,不会给系统带来过大压力。
    • 中级配置(如 MacBook Pro M1 Pro 芯片):可尝试 “ollama run deepseek-r1:13B” 。M1 Pro 芯片性能较强,能更好地运行 13B 模型,处理一些稍复杂的任务。
    • 高级配置(如 Mac Pro 配备高性能 GPU):可选择 “ollama run deepseek-r1:33B” 甚至 “ollama run deepseek-r1:70B” (需根据实际性能评估)。Mac Pro 强大的硬件性能能够支撑较大规模模型的运行,实现更复杂的 AI 功能。

例如 “ollama run deepseek - r1:70B” ,根据电脑配置选择适合的模型版本。注意,70B 模型文件较大,约 42GB,下载时间取决于网络速度,预计在 40 分钟左右。

  1. 启动 DeepSeek:在终端运行上述命令后,即可通过简单的文本交互界面与 DeepSeek 进行对话。如果想要更便捷的交互体验,可以安装 PageAssist 插件。打开 Chrome 浏览器,前往 Chrome 应用商店,搜索并安装 PageAssist 插件。安装完成后,就能通过直观的用户界面与 DeepSeek 互动,还能进行语言及个性化设置 。

(三)Linux 系统(以 Ubuntu 18.04 及以上为例)

  1. 准备工作:满足相应的硬件和软件依赖条件:
    • Python:Ubuntu 系统默认安装了 Python 2,但建议安装 Python 3。可在终端输入 “sudo apt-get update && sudo apt-get install python3 python3-pip” 进行安装。
    • CUDA 工具包:从nVIDIA 官网下载对应版本的 CUDA 安装文件(.run 格式),下载完成后在终端进入文件所在目录,输入 “sudo sh cuda_xxx.run” (xxx 为版本号)进行安装,安装过程中根据提示进行选择。
    • 深度学习库:使用 pip3 命令安装 TensorFlow 或 PyTorch,例如 “pip3 install tensorflow” 或 “pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117” (假设 CUDA 版本为 11.7)。
  1. 安装 Ollama:在终端运行命令 “curl -fsSL https://ollama.com/install.sh | sh” ,即可完成 Ollama 的下载与安装。
  1. 后续步骤同其他系统:安装好 Ollama 后,通过命令行拉取 DeepSeek 模型,根据不同配置输入对应的命令:
    • 入门级配置(如普通办公电脑):使用 “ollama run deepseek-r1:7B” 。
    • 中级配置(如具备一定算力的工作站):尝试 “ollama run deepseek-r1:13B” 。
    • 高级配置(如专业深度学习服务器):选择 “ollama run deepseek-r1:33B” 或 “ollama run deepseek-r1:70B” 。

根据自身需求选择合适的模型参数规模进行下载和使用。

通过以上步骤,你就可以在 PC 端快速部署 DeepSeek,实现自给自足的使用,摆脱卡顿和服务器繁忙的困扰,尽情享受 DeepSeek 带来的智能服务。不过在部署过程中,要注意根据自己设备的实际配置合理选择模型参数,以获得最佳的使用效果。如果在部署过程中遇到问题,可查阅相关技术论坛或向专业人士寻求帮助。

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言
    友情链接