四时宝库

程序员的知识宝库

针对小白,如何在本地部署deepseek

以下是针对零基础用户的本地部署 DeepSeek 大模型 的极简教程,从安装到运行只需几步:


1. 准备工作

硬件要求

  • 显卡:NVIDIA 显卡(至少 8GB 显存,如 RTX 3060 或更高)。
  • 存储空间:至少 30GB 可用空间(模型文件很大)。

软件要求

  • 操作系统:Windows 10/11 或 macOS/Linux。
  • 安装 Python:前往 Python官网 下载并安装 Python 3.10,安装时勾选 Add Python to PATH。

2. 安装必要工具

(1) 安装 Git(用于下载模型)

  • Windows:下载 Git for Windows,全部默认选项安装。
  • Mac:终端输入 brew install git(需提前安装 Homebrew)。

(2) 安装 Git LFS(大文件下载工具)

安装完 Git 后,打开命令行(Windows 用户打开 CMD 或 PowerShell),输入:

bash

复制

git lfs install

3. 下载模型文件

步骤一:注册 Hugging Face 账号

  1. 访问 Hugging Face 官网 注册账号。
  2. 登录后,访问 DeepSeek 模型页面,找到你需要的模型(例如 deepseek-llm-7b-base)。

步骤二:申请模型权限

点击模型页面的 Request Access 按钮,填写申请理由(简单写“个人学习使用”即可),等待通过(通常几分钟)。

步骤三:下载模型

申请通过后,在模型页面找到 Clone Repository 的链接(类似
https://huggingface.co/deepseek-ai/deepseek-llm-7b-base),然后在命令行输入:

bash

复制

git clone https://huggingface.co/deepseek-ai/deepseek-llm-7b-base

(下载时间较长,模型约 15GB,确保网络稳定)


4. 安装 Python 依赖

打开命令行,依次输入以下命令:

bash

复制

# 安装 PyTorch(深度学习框架)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

# 安装 Transformers 库(用于加载模型)
pip install transformers accelerate sentencepiece

5. 运行模型(极简版)

(1) 创建脚本文件

新建一个文本文件 deepseek_demo.py,用记事本或 VS Code 打开,粘贴以下代码:

python

复制

from transformers import AutoModelForCausalLM, AutoTokenizer

# 模型路径(替换为你下载的模型文件夹路径)
model_path = "./deepseek-llm-7b-base"

# 加载模型和分词器
tokenizer = AutoTokenizer.from_pretrained(model_path)
model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto")

# 输入问题
prompt = "如何做西红柿炒鸡蛋?"

# 生成回答
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_length=200)
answer = tokenizer.decode(outputs[0], skip_special_tokens=True)

print("回答:", answer)

(2) 运行脚本

在命令行中,进入脚本所在目录,输入:

bash

复制

python deepseek_demo.py

6. 常见问题解决

问题1:显存不足

  • 方案1:改用更小模型(如 deepseek-llm-1.3b)。
  • 方案2:在代码中添加量化加载(修改模型加载行):
  • python
  • 复制
  • model = AutoModelForCausalLM.from_pretrained( model_path, device_map="auto", load_in_4bit=True # 4bit量化,显存需求减半 )

问题2:下载模型太慢

  • 方案:使用国内镜像(需在 Hugging Face 页面手动下载 model.safetensors 和配置文件,放入模型文件夹)。

问题3:Python 报错

  • 方案:确保安装了所有依赖:
  • bash
  • 复制
  • pip install --upgrade torch transformers

最终效果

运行成功后,你会看到类似输出:

复制

回答: 如何做西红柿炒鸡蛋?  
1. 准备食材:西红柿2个、鸡蛋3个、葱花少许、盐和糖适量。
2. 鸡蛋打散,加少许盐搅拌均匀;西红柿切块。
3. 热锅倒油,倒入鸡蛋液,炒至凝固后盛出。
4. 重新热油,爆香葱花,加入西红柿翻炒出汁。
5. 加入鸡蛋,加盐和糖调味,翻炒均匀即可。

附:小白友好提示

  • 如果遇到错误,直接复制错误信息到百度/Google 搜索,90%的问题已有解决方案。
  • 模型首次运行会较慢(需要加载到显存),后续会变快。
  • 想用聊天交互界面?可用 Gradio 快速搭建(需额外安装 pip install gradio)。

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言
    友情链接