一、DeepSeek-R1本地部署配置要求
(一)轻量级模型
▌DeepSeek-R1-1.5B
-
内存容量:≥8GB
-
显卡需求:支持CPU推理(无需独立GPU)
-
适用场景:本地环境验证测试/Ollama集成调试
(二)中规模模型组
▌DeepSeek-R1-7B
-
内存容量:≥16GB
-
显卡配置:NVIDIA RTX 3070/4060(≥8GB)
-
典型应用:中等复杂度NLP任务(文本摘要/多语言翻译)
▌DeepSeek-R1-8B
-
内存容量:≥16GB
-
显卡配置:NVIDIA RTX 3070/4060(≥8GB)
-
典型应用:代码生成/逻辑推理等高精度轻量任务
(三)企业级模型组
▌DeepSeek-R1-14B
-
内存容量:≥32GB
-
显卡配置:NVIDIA RTX 4090/A5000(≥16GB)
-
典型应用:长文本语义理解与生成
▌DeepSeek-R1-32B
-
内存容量:≥64GB
-
显卡配置:NVIDIA A100 40GB/双路RTX 3090(≥24GB)
-
典型应用:专业领域高精度推理
(四)超大规模模型组
▌DeepSeek-R1-70B
-
内存容量:≥128GB
-
显卡配置:2x NVIDIA A100 80GB/4x RTX 4090
-
典型应用:复杂生成式AI任务
▌DeepSeek-R1-671B
-
内存容量:≥512GB
-
显卡配置:8x NVIDIA A100/H100多节点集群
-
典型应用:AGI研究/超大规模AI训练
二、查看本机配置(Windows)
通过组合键Ctrl + Alt + Delete启动任务管理器:
-
选择"性能"标签页
-
内存检测:物理内存容量显示(附图)
-
GPU检测:专用显存容量显示(附图)
检测结果:
-
系统内存:16GB
-
GPU显存:8GB
-
推荐部署方案:DeepSeek-R1-7B模型
三、Ollama框架部署
(一)获取安装包
访问官方仓库:https://ollama.com
选择对应系统版本(Windows/macOS/Linux)
(二)安装流程
执行标准安装程序,默认配置即可完成环境部署
四、DeepSeek-R1模型加载与配置
(一)获取模型指令集
访问模型库:deepseek-r1
(二)命令行部署
-
Windows+R启动运行窗口
-
输入"cmd"启动命令提示符
-
执行标准安装指令(附图)
Win+R,然后输入cmd,进入下述界面。
五、可视化交互环境部署
(一)获取CherryStudio
官网下载:https://cherry-ai.com
选择对应系统版本(Windows/macOS)
(二)安装与集成
-
完成标准安装流程
-
启动后自动检测本地模型(详见附图)
-
通过GUI界面进行模型交互
安装好之后,继续下述操作: