使用 LM Studio 部署
- 硬件准备显卡:GTX 1060(6GB)及以上,推荐 RTX3060 及以上。内存:容量 8GB,推荐 16GB 及更高。存储空间:C 盘剩余 20GB,推荐使用 NVMe 固态硬盘。
- 安装 LM Studio2访问LM Studio 官网,根据操作系统下载对应的安装包。如 Windows 用户点击 “Download LM Studio for Windows”,Mac 用户点击相应的 Mac 版本下载。双击运行安装包,按照提示完成安装,安装完成后启动 LM Studio。
- 下载 DeepSeek 模型2点击软件右下角的齿轮按钮,将语言设置为中文。点击软件左侧的放大镜按钮,进入大模型搜索界面,在搜索框中输入 “DeepSeek”,可搜索出多个 DeepSeek 的模型。选择适合自己硬件和需求的模型版本,如 1.5B 适合体验尝鲜,7B 适合普通内容创作及开发测试等。点击右下角的 “Download” 进行下载。
- 加载并使用模型2下载完成后,回到软件主界面,在软件顶部点击选择模型,然后选中刚刚下载的模型,点击右下角的加载即可使用。
使用 Ollama 部署
- 硬件准备DeepSeek-R1-1.5B:CPU 为 4 核以上,Intel/AMD 多核处理器;可选 4GB + 显存,如 GTX 1650;内存 8GB+;存储 3GB+。DeepSeek-R1-7B:CPU 为 8 核以上,现代多核 CPU;8GB + 显存,如 RTX 3070/4060;内存 16GB+;存储 8GB+。
- 安装 OllamaWindows:访问Ollama 官网下载.msi 安装包,按照向导完成安装。macOS:下载.dmg 安装包,将 Ollama 拖入 “Applications” 目录。Linux:使用终端执行curl -sSL https://ollama.ai/install.sh | sh。
- 下载并运行 DeepSeek 模型4打开命令提示符或终端,输入命令ollama run deepseek-r1:7b等,其中 7b 可根据需求替换为 1.5b、8b、14b 等其他版本。
- 启动 Ollama 服务在命令提示符或终端中运行ollama serve,服务启动后,可以通过访问http://localhost:11434与模型进行交互。
- 安装可视化界面(可选)可安装 Chatbox AI,访问Chatbox AI 官网下载安装。在 “设置” 中选择 “Ollama API”,即可连接本地模型开始使用。
在 Linux 系统中手动部署
- 环境准备3操作系统:推荐 Ubuntu 20.04 及以上版本。Python 版本:安装 Python 3.8 及以上版本。GPU 支持:需要支持 CUDA 的 NVIDIA GPU,推荐显存 16GB 及以上。安装 CUDA 与 CUDNN:根据 NVIDIA GPU 型号和驱动版本,安装合适的 CUDA(11.2 及以上版本)和 CUDNN(8.1 及以上版本)。
- 安装步骤3更新系统:sudo apt-get update。安装必要依赖:sudo apt-get install -y python3-pip python3-dev python3-venv git。创建并激活虚拟环境:python3 -m venv deepseek-env,source deepseek-env/bin/activate。安装 PyTorch:根据 CUDA 版本选择合适的 PyTorch 安装命令,如 CUDA 11.2 的安装命令为pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu112。
- DeepSeek 模型下载与部署33克隆 DeepSeek 代码库:git clone https://github.com/deepseek-ai/deepseek.git,cd deepseek。安装项目依赖:pip install -r requirements.txt。下载并放置预训练模型:从官方提供的链接下载 DeepSeek 预训练模型权重,并将其放置在models/目录下,如wget (官方链接) -O models/deepseek_model.pth。配置环境变量:export MODEL_PATH=models/deepseek_model.pth,export CUDA_VISIBLE_DEVICES=0。运行模型:python run.py --model_path $MODEL_PATH --input "你的输入文本"。
原文链接:如何部署本地deepseek,转发请注明来源!