首页>> 优秀博文

DeepSeek R1几种体验方法(1)本地部署越狱版

2025-02-07 13:55:21 133

一、DeepSeek R1大模型简介


DeepSeek R1是专注复杂推理任务的高性能模型,通过大规模强化学习训练,在数学、代码、自然语言处理等领域表现优异。其推理能力媲美OpenAI-o1-1217,且解决了初代模型可读性与流畅性问题。技术特点包括:

  • 混合专家(MoE)架构:动态激活专家网络,降低计算成本;
  • 强化学习优化:通过反思和验证生成更符合人类预期的结果;
  • 开源优势:支持本地私有化部署,满足隐私与安全需求。


蒸馏版与完整版的区别

特性蒸馏版完整版
参数量参数量较少(如 1.5B、7B),性能接近完整版但略有下降。参数量较大(如 32B、70B),性能最强。
硬件需求显存和内存需求较低,适合低配硬件。显存和内存需求较高,需高端硬件支持。
适用场景适合轻量级任务和资源有限的设备。适合高精度任务和专业场景。

这里我们详细看下蒸馏版模型的特点

模型版本参数量特点
deepseek-r1:1.5b1.5B轻量级模型,适合低配硬件,性能有限但运行速度快
deepseek-r1:7b7B平衡型模型,适合大多数任务,性能较好且硬件需求适中。
deepseek-r1:8b8B略高于 7B 模型,性能稍强,适合需要更高精度的场景。
deepseek-r1:14b14B高性能模型,适合复杂任务(如数学推理、代码生成),硬件需求较高。
deepseek-r1:32b32B专业级模型,性能强大,适合研究和高精度任务,需高端硬件支持。
deepseek-r1:70b70B顶级模型,性能最强,适合大规模计算和高复杂度任务,需专业级硬件支持。

还有其他陆续推出的各种量化模型等


二、体验方法

1. 在线平台

  • 秘塔 AI:官网(https://metaso.cn/),选中长思考.R1,搜索及追问;
  • Gitee AI:Gitee平台(https://gitee.com )搜索相关服务;
  • DeepSeek官网:(https://deepseek.com),正常官网建议关注官方动态。

2. API接入

支持开发者通过API快速集成,需参考官方文档申请密钥。

3. 本地部署

  • 工具:Ollama(官网:https://ollama.com );
  • 适用系统:Windows、Mac、Linux;
  • 模型版本:提供7B、8B、14B等参数版本,普通电脑推荐8B,GPU显存>8G可选14B。

4. 云平台方案

  • Groq平台:可体验70B参数的R1模型(需访问Groq官网);
  • 阿里云部署:支持一键部署,适合企业用户(参考阿里云官网);
  • 百度云/腾讯云/360云/硅基流动/国际超算中心/移动云/联通云/电信云等。

5. 其他平台

  • 英伟达的LLM模型实验室:可体验70B参数的R1模型;
  • flowith / perplexity;
  • 智能体coaz插件。

三、优劣势对比

类型优势劣势
本地部署数据隐私性高、离线可用、完全控制硬件要求高(如32GB内存+16GB显存),CPU负载大
云端/API接入低成本、无需维护、高可用性依赖网络、存在延迟、数据隐私风险

四、成本及优惠信息

  • 本地部署:模型免费,但需自备硬件(如i5+32GB内存+中高端GPU);
  • API费用:按调用量计费,具体参考官网定价;
  • 优惠活动:暂无明确信息,建议关注官方公告或社区动态。

五、本地部署

  1. Windows 配置:
  2. Linux 配置:
  3. Mac 配置:

可根据下表配置选择使用自己的模型

模型名称参数量大小VRAM推荐 Mac 配置推荐 Windows/Linux 配置
deepseek-r1:1.5b1.5B1.1 GB~2 GBM2/M3 MacBook Air (8GB RAM+)NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
deepseek-r1:7b7B4.7 GB~5 GBM2/M3/M4 MacBook Pro (16GB RAM+)NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
deepseek-r1:8b8B4.9 GB~6 GBM2/M3/M4 MacBook Pro (16GB RAM+)NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
deepseek-r1:14b14B9.0 GB~10 GBM2/M3/M4 Pro MacBook Pro (32GB RAM+)NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
deepseek-r1:32b32B20 GB~22 GBM2 Max/Ultra Mac StudioNVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
deepseek-r1:70b70B43 GB~45 GBM2 Ultra Mac StudioNVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)
deepseek-r1:1.5b-qwen-distill-q4_K_M1.5B1.1 GB~2 GBM2/M3 MacBook Air (8GB RAM+)NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
deepseek-r1:7b-qwen-distill-q4_K_M7B4.7 GB~5 GBM2/M3/M4 MacBook Pro (16GB RAM+)NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
deepseek-r1:8b-llama-distill-q4_K_M8B4.9 GB~6 GBM2/M3/M4 MacBook Pro (16GB RAM+)NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
deepseek-r1:14b-qwen-distill-q4_K_M14B9.0 GB~10 GBM2/M3/M4 Pro MacBook Pro (32GB RAM+)NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
deepseek-r1:32b-qwen-distill-q4_K_M32B20 GB~22 GBM2 Max/Ultra Mac StudioNVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
deepseek-r1:70b-llama-distill-q4_K_M70B43 GB~45 GBM2 Ultra Mac StudioNVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)

本地部署对计算机硬件有一定要求,且只能安装蒸馏版模型,质量比原版R1差距较大,一般不建议部署!但是官方的满血版一般都有违禁内容的限制,部分体验不完美!下面以胖脸的无限制版为例部署体验,只做体验学习不做任何推荐!

1. 硬件要求

  • 最低配置:i5处理器、32GB内存、16GB显存显卡(如AMD RX6800)、1TB SSD;
  • 推荐配置:更高性能CPU(如i7/i9)、64GB内存、NVIDIA RTX 4090。

2. 安装Ollama

访问Ollama官网(https://ollama.com/download ),以Windows为例,下载对应系统安装包到D盘OLLAMA文件夹下;

​编辑

运行Ollama,复制下面代码在CMD命令中,右键粘贴运行,安装ollama到D盘。


OllamaSetup.exe "/DIR=D:\OLLAMA

安装成功会显示"Welcome to Ollama!",也可以终端输入 ollama --version 或浏览器输入http://127.0.0.1:11434来验证是否成功。

为方便局域网中其他电脑也可以运行该模型,建议增加如下环境变量(完成后重启ollama):

变量名
OLLAMA_HOST0.0.0.0
OLLAMA_MODELSD:\OLLAMA\models
OLLAMA_ORIGINS“*”

3. 拉取与运行越狱版模型

7b模型


ollama run huihui_ai/deepseek-r1-abliterated:7b

8b模型


ollama run huihui_ai/deepseek-r1-abliterated:8b

14b模型


ollama run huihui_ai/deepseek-r1-abliterated:14b

32b模型


ollama run huihui_ai/deepseek-r1-abliterated:32b

70b模型


ollama run huihui_ai/deepseek-r1-abliterated:70b


# 拉取模型(示例:7B版本)

ollama run huihui_ai/deepseek-r1-abliterated:7b

​编辑

# 若下载中断,重新执行命令续传

# 查看已下载模型

ollama list

​编辑

截至目前就已经可以在终端体验R1无限制版大模型了,比如提个不该问的问题(图略),但为了更好的体验一般还要更好的UI界面交互

4. 配置Web交互界面

  • 方法一:使用ChatboxAI(https://web.chatboxai.app/)/ Iuaichat(https://iuaihub.com/)等网页;

开启模型后,在模型界面选中Ollama及具体已安装的模型

​编辑

保存返回就可以具体体验了,举例说明之用,建议遵守相关规定

​编辑

​编辑

  • 方法二:通过浏览器扩展(如Chrome的Page Assist):

5. 优化GPU利用率

  • 问题:默认配置下CPU满载、GPU利用率低;
  • 解决方法:修改Ollama配置文件,增加GPU相关参数,重启服务:

 sudo systemctl restart ollama




六、常见问题

  1. 模型响应慢:检查硬件负载,优先使用低参数版本;
  2. 显存不足:降低模型参数或升级显卡;
  3. 部署失败:确保Ollama版本兼容性,参考官方文档排查。


七、总结

DeepSeek R1凭借开源与高性能特性,成为本地AI部署的热门选择。通过Ollama工具,用户可快速实现私有化部署,兼顾隐私与灵活性。对于普通用户,推荐从8B参数版本入门;企业用户可结合云端方案降低成本。随着技术迭代,R1有望在更多场景释放价值。