本地部署免费开源DeepSeek-R1大模型

近期,杭州深度求索人工智能基础技术研究有限公司正式发布了其最新研发的高性能AI推理模型——DeepSeekR1。该模型在数学、代码和自然语言推理等任务上表现卓越,性能直接对标OpenAI的o1正式版,同时以开源形式向全球开发者开放,并使用MIT协议开源,支持免费商用,无需申请授权,为LLM大模型开源世界又补给了满满一仓库弹药。

DeepSeek R1的核心优势

DeepSeek R1的最大亮点在于其通过强化学习(RL)技术显著提升了模型的推理能力,且仅需极少量标注数据即可实现高效训练。与OpenAI的o1相比,R1在多个基准测试中表现优异,同时价格仅为o1的几十分之一,具有极高的性价比。

  1. 强化学习驱动的推理能力
    R1在后训练阶段大规模应用了强化学习技术,无需依赖大量监督微调(SFT)数据,即可显著提升模型的推理能力。这一创新方法不仅降低了训练成本,还使模型在复杂任务中表现出色。
  2. 长链推理与模型蒸馏
    R1采用了长链推理(Chain-of-Thought, CoT)技术,能够逐步分解复杂问题,并通过多步骤逻辑推理解决问题。此外,R1支持模型蒸馏,开发者可以将其推理能力迁移到更小型的模型中,满足特定场景需求。
  3. 开源与灵活的许可证
    R1遵循MIT License开源协议,允许用户自由使用、修改和商用。同时,DeepSeek还开源了R1-Zero和多个蒸馏后的小模型,进一步推动了AI技术的普及与创新。

各项性能指标更是和OpenAI-o1 模型不相上下,甚至做到了小部分的超越,关键是开源的,我们可以本地部署使用

1、本地部署

我们这里使用Ollama来进行模型部署,安装你的系统对应的客户端

安装Ollama

Ollama 官方版:ollama.com/

安装模型

如果使用 4-bit 量化,显存需求:

  • 1.5B:约 1 GB

  • 7B:约 4 GB

  • 8B:约 4.5 GB

  • 14B:约 8 GB

  • 32B:约 18 GB

  • 70B:约 40 GB

  • 对于资源有限的用户,推荐使用 1.5B7B 模型,它们可以在单张消费级显卡上运行。

  • 如果需要更高的性能,可以选择 14B32B 模型,但需要多 GPU 配置。

  • 70B 模型适合高端计算环境,需要多张高端 GPU 支持。

image-20250127131814855

1.5B Qwen DeepSeek R1

1
ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

1
ollama run deepseek-r1:7b

8B Llama DeepSeek R1

1
ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

1
ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

1
ollama run deepseek-r1:32b

70B Llama DeepSeek R1

1
ollama run deepseek-r1:70b

安装完就可以使用终端去聊天了

image-20250127131814855

安装控制端

为了更方便使用我们安装一个控制端,也可以使用其他的

浏览器Web UI 控制端【点击安装

image-20250127130936244

2. 更多模型下载

DeepSeek-R1

模型 #总参数 #已激活参数 上下文长度 下载
DeepSeek-R1-Zero 671B 37B 128千 🤗 HuggingFace
DeepSeek-R1 671B 37B 128千 🤗 HuggingFace

DeepSeek-R1-Zero 和 DeepSeek-R1 基于 DeepSeek-V3-Base 进行训练。有关模型架构的更多详细信息,请参阅DeepSeek-V3存储库。

DeepSeek-R1-Distill 模型

模型 基础模型 下载
DeepSeek-R1-Distill-Qwen-1.5B Qwen2.5-Math-1.5B 🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-7B Qwen2.5-Math-7B 🤗 HuggingFace
DeepSeek-R1-Distill-Llama-8B Llama-3.1-8B 🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-14B Qwen2.5-14B 🤗 HuggingFace
DeepSeek-R1-Distill-Qwen-32B Qwen2.5-32B 🤗 HuggingFace
DeepSeek-R1-Distill-Llama-70B Llama-3.3-70B-Instruct 🤗 HuggingFace

DeepSeek-R1-Distill 模型基于开源模型进行了微调,使用了 DeepSeek-R1 生成的样本。我们对其配置和分词器进行了轻微更改。请使用我们的设置来运行这些模型。

4.评估结果

DeepSeek-R1-评估

对于我们所有的模型,最大生成长度设置为 32,768 个 token。对于需要采样的基准,我们使用的温度为0.6,top-p 值为0.95,并为每个查询生成 64 个响应来估计 pass@1。

类别 基准(公制) 克劳德-3.5-十四行诗-1022 GPT-4o 0513 DeepSeek V3 OpenAI o1-mini OpenAI o1-1217 DeepSeek R1
建筑学 教育部 教育部
# 激活参数 37B 37B
# 总参数 671B 671B
英语 MMLU(通过@1) 88.3 87.2 88.5 85.2 91.8 90.8
MMLU-Redux(EM) 88.9 88.0 89.1 86.7 92.9
MMLU-Pro(EM) 78.0 72.6 75.9 80.3 84.0
掉落 (3 发 F1) 88.3 83.7 91.6 83.9 90.2 92.2
IF-Eval(提示严格) 86.5 84.3 86.1 84.8 83.3
GPQA-钻石级 (Pass@1) 65.0 49.9 59.1 60.0 75.7 71.5
SimpleQA(正确) 28.4 38.2 24.9 7.0 47.0 30.1
框架(配件) 72.5 80.5 73.3 76.9 82.5
AlpacaEval2.0 (LC-胜率) 52.0 51.1 70.0 57.8 87.6
ArenaHard(GPT-4-1106) 85.2 80.4 85.5 92.0 92.3
代码 LiveCodeBench (Pass@1-COT) 33.8 34.2 53.8 63.4 65.9
Codeforces(百分位数) 20.3 23.6 58.7 93.4 96.6 96.3
Codeforces(评级) 717 759 1134 1820 2061 2029
SWE 已验证(已解决) 50.8 38.8 42.0 41.6 48.9 49.2
Aider-Polyglot (Acc.) 45.3 16.0 49.6 32.9 61.7 53.3
数学 AIME 2024(通行证@1) 16.0 9.3 39.2 63.6 79.2 79.8
数学-500 (通过@1) 78.3 74.6 90.2 90.0 96.4 97.3
CNMO 2024 (通行证@1) 13.1 10.8 43.2 67.6 78.8
中文 CLUEWSC(EM) 85.4 87.9 90.9 89.9 92.8
C-评估(EM) 76.7 76.0 86.5 68.9 91.8
C-SimpleQA(正确) 55.4 58.7 68.0 40.3 63.7

蒸馏模型评估

模型 AIME 2024 通行证@1 AIME 2024 缺点@64 MATH-500 通过@1 GPQA 钻石通行证@1 LiveCodeBench 通行证@1 CodeForces 评级
GPT-4o-0513 9.3 13.4 74.6 49.9 32.9 759
克劳德-3.5-十四行诗-1022 16.0 26.7 78.3 65.0 38.9 717
o1-迷你 63.6 80.0 90.0 60.0 53.8 1820
QwQ-32B-预览 44.0 60.0 90.6 54.5 41.9 1316
DeepSeek-R1-Distill-Qwen-1.5B 28.9 52.7 83.9 33.8 16.9 954
DeepSeek-R1-Distill-Qwen-7B 55.5 83.3 92.8 49.1 37.6 1189
DeepSeek-R1-Distill-Qwen-14B 69.7 80.0 93.9 59.1 53.1 1481
DeepSeek-R1-Distill-Qwen-32B 72.6 83.3 94.3 62.1 57.2 1691
DeepSeek-R1-Distill-Llama-8B 50.4 80.0 89.1 49.0 39.6 1205
DeepSeek-R1-Distill-Llama-70B 70.0 86.7 94.5 65.2 57.5 1633

常见问题

模型加载失败

  • 确保模型名称正确。
  • 检查网络连接,确保能够访问模型仓库。

GPU 不支持

  • 检查 CUDA 和驱动是否安装正确。
  • 确保 Ollama 版本支持 GPU。

性能问题

  • 尝试减少批量大小或使用更小的模型变体。
  • 确保硬件资源充足。

参考文档


使用 Ollama 客户端轻松部署和运行 DeepSeek-R1 模型。如果有任何问题,可以参考官方文档或联系支持团队。


本地部署免费开源DeepSeek-R1大模型
https://blog.quickso.cn/2025/01/27/本地部署免费开源DeepSeek-R1大模型/
作者
木子欢儿
发布于
2025年1月27日
许可协议