DeepSeek R1是专注复杂推理任务的高性能模型,通过大规模强化学习训练,在数学、代码、自然语言处理等领域表现优异。其推理能力媲美OpenAI-o1-1217,且解决了初代模型可读性与流畅性问题。技术特点包括:
蒸馏版与完整版的区别
特性 | 蒸馏版 | 完整版 |
参数量 | 参数量较少(如 1.5B、7B),性能接近完整版但略有下降。 | 参数量较大(如 32B、70B),性能最强。 |
硬件需求 | 显存和内存需求较低,适合低配硬件。 | 显存和内存需求较高,需高端硬件支持。 |
适用场景 | 适合轻量级任务和资源有限的设备。 | 适合高精度任务和专业场景。 |
这里我们详细看下蒸馏版模型的特点
模型版本 | 参数量 | 特点 |
deepseek-r1:1.5b | 1.5B | 轻量级模型,适合低配硬件,性能有限但运行速度快 |
deepseek-r1:7b | 7B | 平衡型模型,适合大多数任务,性能较好且硬件需求适中。 |
deepseek-r1:8b | 8B | 略高于 7B 模型,性能稍强,适合需要更高精度的场景。 |
deepseek-r1:14b | 14B | 高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。 |
deepseek-r1:32b | 32B | 专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。 |
deepseek-r1:70b | 70B | 顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。 |
还有其他陆续推出的各种量化模型等
1. 在线平台
2. API接入
支持开发者通过API快速集成,需参考官方文档申请密钥。
3. 本地部署
4. 云平台方案
5. 其他平台
类型 | 优势 | 劣势 |
本地部署 | 数据隐私性高、离线可用、完全控制 | 硬件要求高(如32GB内存+16GB显存),CPU负载大 |
云端/API接入 | 低成本、无需维护、高可用性 | 依赖网络、存在延迟、数据隐私风险 |
可根据下表配置选择使用自己的模型
模型名称 | 参数量 | 大小 | VRAM | 推荐 Mac 配置 | 推荐 Windows/Linux 配置 |
deepseek-r1:1.5b | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
deepseek-r1:1.5b-qwen-distill-q4_K_M | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
deepseek-r1:7b-qwen-distill-q4_K_M | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
deepseek-r1:8b-llama-distill-q4_K_M | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
deepseek-r1:14b-qwen-distill-q4_K_M | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
deepseek-r1:32b-qwen-distill-q4_K_M | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
deepseek-r1:70b-llama-distill-q4_K_M | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
本地部署对计算机硬件有一定要求,且只能安装蒸馏版模型,质量比原版R1差距较大,一般不建议部署!但是官方的满血版一般都有违禁内容的限制,部分体验不完美!下面以胖脸的无限制版为例部署体验,只做体验学习不做任何推荐!
1. 硬件要求
2. 安装Ollama
访问Ollama官网(https://ollama.com/download ),以Windows为例,下载对应系统安装包到D盘OLLAMA文件夹下;
编辑
运行Ollama,复制下面代码在CMD命令中,右键粘贴运行,安装ollama到D盘。
OllamaSetup.exe "/DIR=D:\OLLAMA
安装成功会显示"Welcome to Ollama!",也可以终端输入 ollama --version 或浏览器输入http://127.0.0.1:11434来验证是否成功。
为方便局域网中其他电脑也可以运行该模型,建议增加如下环境变量(完成后重启ollama):
变量名 | 值 |
OLLAMA_HOST | 0.0.0.0 |
OLLAMA_MODELS | D:\OLLAMA\models |
OLLAMA_ORIGINS | “*” |
3. 拉取与运行越狱版模型
7b模型
ollama run huihui_ai/deepseek-r1-abliterated:7b
8b模型
ollama run huihui_ai/deepseek-r1-abliterated:8b
14b模型
ollama run huihui_ai/deepseek-r1-abliterated:14b
32b模型
ollama run huihui_ai/deepseek-r1-abliterated:32b
70b模型
ollama run huihui_ai/deepseek-r1-abliterated:70b
# 拉取模型(示例:7B版本)
ollama run huihui_ai/deepseek-r1-abliterated:7b
编辑
# 若下载中断,重新执行命令续传
# 查看已下载模型
ollama list
编辑
截至目前就已经可以在终端体验R1无限制版大模型了,比如提个不该问的问题(图略),但为了更好的体验一般还要更好的UI界面交互
4. 配置Web交互界面
开启模型后,在模型界面选中Ollama及具体已安装的模型
编辑
保存返回就可以具体体验了,举例说明之用,建议遵守相关规定
编辑
编辑
5. 优化GPU利用率
sudo systemctl restart ollama
DeepSeek R1凭借开源与高性能特性,成为本地AI部署的热门选择。通过Ollama工具,用户可快速实现私有化部署,兼顾隐私与灵活性。对于普通用户,推荐从8B参数版本入门;企业用户可结合云端方案降低成本。随着技术迭代,R1有望在更多场景释放价值。